Dissertations / Theses on the topic 'Lois de mélanges'

To see the other types of publications on this topic, follow the link: Lois de mélanges.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Lois de mélanges.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Benabbou, Zahra. "Lois mélanges et "grands" sinistres." Paris 6, 1994. http://www.theses.fr/1994PA066315.

Full text
Abstract:
Notre travail traite du probleme de la tarification des risques dans une branche d'assurance ou sont presents de grands sinistres. Nous modelisons l'ensemble des couts de sinistre par une distribution melange de deux lois de supports distincts: la premiere correspond aux sinistres ordinaires, la seconde, dont le support est au dela du seuil x#o, correspond aux sinistres non ordinaires. La premiere partie de la these porte sur l'estimation des parametres du melange quand la priorite x#o est supposee donnee. La methode utilisee est celle du maximum de vraisemblance via l'algorithme em. Le choix des valeurs initiales de cet algorithme etant crucial, nous proposons plusieurs methodes adaptees au cas d'un melange de lois a supports distincts. La seconde partie traite de l'estimation du seuil x#o. En combinant methode graphique et reechantillonnage bootstrap, nous obtenons un intervalle de valeurs possibles de x#o. L'application des methodes de la premiere partie conduit a une estimation simultanee par le maximum de vraisemblance du seuil et des parametres du melange. Les resultats de notre travail sont appliques dans une troisieme partie a des donnees de la branche incendie des risques industriels
APA, Harvard, Vancouver, ISO, and other styles
2

Mounime, Said. "Contribution à l'étude statistique des mélanges de lois de probabilité." Montpellier 2, 1993. http://www.theses.fr/1993MON20206.

Full text
Abstract:
Dans ce travail, on s'est interesse a l'analyse statistique des modeles de melange infini de lois de probabilite. La premiere partie de ce travail est consacree a une synthese de divers travaux sur l'estimation de la loi melangeante ainsi qu'a la construction d'un estimateur fortement consistant de cette derniere a partir de l'information de kullback. Dans la seconde partie, on a considere les melanges infinis de lois de probabilite de la famille =(p#; ,i) definie sur n par: p#(k)=a#k#k/b(); a#k0, ,ir#+ qui contient de nombreuses distributions standards et on s'est interesse a l'estimateur du maximum de vraisemblance (e. M. V. ) de la loi melangeante a partir d'un echantillon i. I. D. Dans un premier temps, l'identifiabilite du modele est demontre, l'existence, la caracterisation, l'unicite et la consistance sont etablies et un algorithme pour l'approcher est propose. Ensuite, on a muni l'espace des probabilites discretes d'une norme de type #2 et nous avons demontre que pour cette norme, l'e. M. V. Converge vers la loi melangeante avec la vitesse n#(#1#/#2#-##) pour tout positif. Et enfin, on a demontre que sous une hypothese de regularite de la vraie loi melangeante g au voisinage de zero, le processus #n(#n-) admet comme lois limites finies dimensionnelles des lois normales centrees
APA, Harvard, Vancouver, ISO, and other styles
3

Gomes, Antonio. "Reconnaissance de mélanges de lois de Bingham : application à la classification de variables." Montpellier 2, 1993. http://www.theses.fr/1993MON20156.

Full text
Abstract:
Le travail est motive par la necessite de reconnaitre des groupes homogenes de variables dans des etudes statistiques portant sur un grand nombre de variables. On se place dans le cadre de melanges de lois de bingham sur la sphere a un seul parametre de concentration. On expose et on compare a travers des simulations deux methodes de reconnaissance de melanges
APA, Harvard, Vancouver, ISO, and other styles
4

Bruneau, Pierrick. "Contributions en classification automatique : agrégation bayésienne de mélanges de lois et visualisation interactive." Phd thesis, Nantes, 2010. http://www.theses.fr/2010NANT2023.

Full text
Abstract:
Internet, ainsi que des architectures récentes telles que les réseaux de capteurs, sont le siège de masses de sources de données distribuées à large echelle, en perpétuelle croissance. Cette profusion, accompagnée du besoin d'outillage des utilisateurs, implique le développement de techniques d'analyse et d'indexation adaptées. Les techniques de classification automatique concernent la caractérisation de classes dans un ensemble d'éléments. Celles-ci sont très souvent employées pour la réalisation d'outils rendant l'information accessible aux utilisateurs. Dans le cadre de cette thèse, nous avons contribué a l'agrégation de modèles de mélange de distributions de probabilité. Cette classe de modèles est en effet souvent utilisée pour des tâches de catégorisation. Nos propositions, utilisant un formalisme bayesien variationnel, sont caracterisées par des coûts de calcul et de transmission réduits. Avec ces travaux, nous entendions fournir une solution partielle à l'estimation de modèles sur des données distribuées. Nous avons également contribué à la classication visuelle de données en flux. Pour ce faire, nous avons notamment employé des principes bio-mimétiques, ou encore des résultats de la théorie des graphes. Outre la proposition d'interfaces efficaces pour un utilisateur, nous avons également envisagé la manière dont celui-ci peut rétro-agir sur le processus de classification
The internet and recent architectures such as sensor networks are currently witnessing tremendous and continuously growing amounts of data, often distributed on large scales. Combined with user expectations with respect to tooling, this encourages developing adequate techniques for analyzing and indexing. Classication and clustering tasks are about characterizing classes within data collections. These are often used as building blocks for designing tools aimed at making data accessible to users. In this document, we describe our contributions to mixture models aggregation. These models are classically used for content categorization. Using variational Bayesian principles, we aimed at designing low computation and transmission costs algorithms. Doing so, we aimed at proposing a building block for distributed density model estimation. We also contributed to visual classication applied to data streams. To this purpose, we employed bio-mimetic principles, and results from graph theory. More specically, visual and dynamic abstractions of an underlying clustering process were proposed. We strived to provide users with ecient interfaces, while allowing using their actions as a feedback
APA, Harvard, Vancouver, ISO, and other styles
5

Paul, Nicolas. "Une nouvelle approche pour l'Estimation des Mélanges de Lois : application à la radio cognitive." Paris, CNAM, 2008. http://www.theses.fr/2008CNAM0592.

Full text
Abstract:
La thèse porte sur l'estimation des mélanges de densités de probabilité (ddp). Le nombre K de composantes dans le mélange est supposé connu. Les supports des ddp des composantes sont supposés être suffisamment séparés pour que les modes des composantes restent des modes de la ddp du mélange. Notre approche utilise un critère original d’optimisation, appelé K-produit (KP). Ce critère présente l’avantage d’être plus facile à optimiser que les critères classiques, dérivés de la log-vraisemblance. En dimension 1 ou 2, le minimum global de KP s’obtient par la résolution d’un système de K équations linéaires suivi du calcul des racines d’un polynôme d’ordre K. En dimension quelconque, un algorithme itératif de relaxation peut être utilisé, dans lequel chaque étape consiste en une minimisation d’un simple critère de moindres carrés pondérés. Le minimum global du critère KP est un ensemble de K vecteurs répartis dans les K zones les plus denses de l’espace d’observation, fournissant ainsi une estimation biaisée mais utile des K espérances des composantes du mélange: Si les supports des composantes sont suffisamment séparés, un simple algorithme de classification au sens du plus proche voisin permet de séparer les différentes composantes à partir du minimum de KP. Une application originale de notre critère a ensuite été proposée dans le cadre de la radio cognitive et de l’accès opportuniste du spectre : Le critère KP est utilisé par un ensemble d’utilisateurs dit « secondaires » pour estimer les différents modes d’utilisation d’une bande de fréquence par un réseau d’utilisateurs dit « primaires »
This thesis deals with unsupervised mixture estimation. The number K of components is supposed to be known and the mixture components do not strongly overlap, so that the component modes remain modes of the mixture probability density function. Our approach is based on an original optimisation criterion, called “K-product”. The global optimisation of KP is easier than the global optimisation of the classical criteria, usually derived from the log-likelihood. In dimension 1 or 2, the global minimum of KP can be reached by first solving a system of K linear equations then finding the roots of some polynomial of order K. In higher dimension, a relaxation algorithm can be used, where each step simply consists of a weighted least square optimization. The global minimum of KP provides a biased but useful estimation of the component expectations: If the components do not strongly overlap, a simple nearest neighbour classification, based on the KP minimum, enable to separate the different components. An original application has been proposed in a cognitive radio context, where the KP criterion is used by a set of “secondary users” to estimate the different mode of activity of a set of “primary users” in a given radio spectrum band
APA, Harvard, Vancouver, ISO, and other styles
6

Gning, Lucien Diégane. "Utilisation des mélanges de lois de Poisson et de lois binomiales négatives pour établir des tarifs a priori et a posteriori en assurance non-vie." Paris 6, 2011. http://www.theses.fr/2011PA066304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Busignies, Virginie. "Recherche de lois de mélange sur des propriétés mécaniques de systèmes granulaires compactés." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00012167.

Full text
Abstract:
Les matériaux granulaires sont utilisés dans de nombreux domaines tels que la pharmacie, la chimie, la métallurgie, l'agroalimentaire. Ils font l'objet de nombreuses recherches théoriques et expérimentales. La compression en matrice fermée est un procédé économique et facile à automatiser, ce qui explique qu'elle soit très répandue dans les industries qui utilisent des milieux granulaires. Dans le domaine pharmaceutique, le comprimé reste la forme la plus présente sur le marché. Bien que simple en apparence, la compression est un processus dynamique irréversible d'une grande complexité. Dans le cas d'un comprimé pharmaceutique, il faut garder à l'esprit que celui ci doit répondre à la fois à des contraintes technologiques, à des contraintes thérapeutiques et à des contraintes réglementaires très strictes. Pour répondre à ces différentes contraintes, les comprimés pharmaceutiques sont obtenus par la compression de mélanges souvent complexes d'excipients et d'une substance active. Bien que des progrès aient été fait dans la quantification des propriétés mécaniques des systèmes simples, le comportement mécanique des systèmes de poudres plus complexes a été moins étudié. L'idéal pour le formulateur serait de disposer des propriétés de chaque constituant du mélange et de sa contribution au comportement de l'ensemble du système pour pouvoir prédire le comportement des constituants en mélange. L'expérience semble montrer que ce n'est pas aussi simple. Or, comprendre le comportement d'un mélange en fonction des propriétés de ces constituants de base, c'est non seulement pouvoir prédire le comportement du mélange, mais également pouvoir développer de nouvelles formules.

L'objectif de ce travail de recherche est d'évaluer les propriétés de mélanges granulaires compactés. Etant donnée la complexité du problème et la difficulté d'interprétation lorsque l'on s'intéresse à des mélanges d'excipients, les études doivent être réalisées sur des systèmes simples (mélanges binaires faisant intervenir des systèmes monodisperses). Il a donc été nécessaire d'étudier de la façon la plus complète possible les systèmes simples choisis avant de pouvoir passer à l'étude de leurs mélanges binaires.
Les excipients étudiés (A TAB®, Fast Flo®, Vivapur 12®) sont représentatifs des excipients utilisés dans le domaine pharmaceutique. Les données de la littérature ont également mis en évidence des comportements en compression très différenciés.

Le premier objectif de ce travail a donc été de caractériser de la manière la plus exhaustive possible le comportement sous pression des trois excipients ainsi que les propriétés mécaniques de ces systèmes compactés.
Les résultats obtenus sur la compressibilité des trois excipients (énergies mises en jeu au cours de la compression, consommation de la porosité, modélisation de Heckel et seuil moyen d'écoulement plastique) ont confirmé des aptitudes à la compression très différentes.
En complément, la technique de microtomographie X a été utilisée pour caractériser la fraction solide des comprimés de Vivapur 12®. Cette technique est une technique émergente dans l'étude des comprimés pharmaceutiques. Il a donc été nécessaire au préalable de la valider dans le domaine d'application dans lequel nous voulions la mettre en oeuvre (vérification de la loi de Beer-Lambert). Après une étape de calibration, une hétérogénéité au niveau de la répartition de la masse volumique a été mise en évidence au sein des comprimés, avec une différence importante entre la surface (surdensifiée) et le centre du comprimé. A la vue de ces observations, il apparaît donc que la différence entre les propriétés du volume (résistance à la rupture, module de Young, ...) et les propriétés de surface (dureté en indentation, ...) doit être faite.
Concernant les propriétés mécaniques des systèmes simples compactés (résistance à la rupture, module de Young, ténacité, dureté Brinell), des différences ont été observées entre les trois excipients pour une même propriété. De plus, pour un même excipient, des variations marquées entre les propriétés mécaniques caractéristiques du volume du compact et les propriétés mécaniques caractéristiques de la surface ont été mises en évidence.
Le modèle de la percolation qui est de plus en plus rencontré dans le domaine de la compression de composés pharmaceutiques a été appliqué aux trois systèmes étudiés. Les résultats de nos essais de modélisation semble montrer que ce modèle présente des limites. L'exposant critique ne semble pas universel pour une propriété donnée et les seuils de densité critique obtenus restent difficile à interpréter.

La deuxième partie de ce travail est consacrée à l'étude des mélanges binaires formés à partir des trois excipients étudiés dans la première partie.
Le suivi de l'évolution de la porosité des mélanges (à une contrainte de compression donnée) en fonction de la composition massique du mélange a permis de mettre en évidence une relation linéaire Porosité/Composition. Cette relation permet de déterminer la porosité d'un mélange compacté sous une pression donnée à partir des données recueillies au cours de l'étude des systèmes simples. Par contre, le seuil moyen d'écoulement plastique des mélanges n'évolue pas linéairement avec la composition massique du mélange. Mais en raison de la relation précédemment obtenue, une méthode de calcul indirect du seuil moyen d'écoulement plastique est possible. Cette méthode prédictive permet une bonne approximation des propriétés de densification et de déformation d'un mélange binaire quelle que soit sa composition.
Pour toutes les propriétés mécaniques étudiées, les lois de proportionnalités simples classiquement utilisées en mécanique ne sont pas applicables. Dans la majorité des cas, une déviation négative est même observée par rapport à ces lois simples.
Dans le cas particulier des propriétés mécaniques qui caractérisent la surface des compacts, il est apparu qu'elles étaient régies par le composé le plus plastique du mélange dès que sa proportion massique est égale à environ 30 à 20 %.
Pour s'inscrire dans une optique d'aide à la formulation, un modèle a été proposé pour décrire l'évolution du module de Young et de la résistance à la rupture en fonction de la composition du mélange. Après ajustement, une approche basée sur des interactions triangulaires et sur la probabilité de présence de ces interactions semble la plus adaptée.
Pour compléter l'étude des systèmes binaires, des essais de microtomographie X ont également été menés sur des mélanges Vivapur 12®/A TAB® compactés. Les représentations obtenues ont permis de mettre en évidence le Vivapur 12® au niveau des surfaces des compacts qui ont été en contact avec les pièces mécaniques. Ces observations confirment les résultats obtenus en microindentation sur ce mélange. Les seuils de percolation des deux excipients ont également été mis en évidence.
APA, Harvard, Vancouver, ISO, and other styles
8

Kohler, Stefanie. "Pyrolyse rapide de biomasses et de leurs constituants. Application à l'établissement de lois prévisionnelles." Thesis, Vandoeuvre-les-Nancy, INPL, 2009. http://www.theses.fr/2009INPL017N/document.

Full text
Abstract:
La pyrolyse rapide de différents types de celluloses, lignines, xylanes ainsi que de mélanges synthétiques obtenus à partir de ces composés modèles et aussi de deux biomasses réelles (bois de bouleau et paille de blé), est étudiée dans un four à image. Les vitesses de perte de masse pour les composés modèles étudiés sont très différentes, de manière générale la plus grande vitesse de perte de masse est observée pour la cellulose, suivie du xylane et de la lignine. La lignine se distingue par un temps de début de réaction plus petit que celui observé pour le xylane et la cellulose. Pour un temps donné, le rendement en charbon est plus grand pour la lignine que pour le xylane. La formation de charbon à partir de la cellulose est marginale. La cellulose microgranulaire produit en majorité des vapeurs et très peu de gaz. La cellulose extraite du bois de bouleau montre un comportement intermédiaire entre le comportement de la cellulose microgranulaire et les lignines. Le xylane se distingue par une vitesse de formation de gaz supérieure à celles des vapeurs. Les mélanges synthétiques à partir des trois composés modèles montrent un comportement intermédiaire. Le bois de bouleau est plus réactif que la paille de blé et son comportement peut être comparé à celui de la cellulose extraite du bois de bouleau en ce qui concerne les vitesses de perte de masse et de formation de vapeurs. Une corrélation simple se basant sur l’addition pondérée des vitesses de formation des produits est établie et les résultats obtenus sont comparés aux résultats expérimentaux. Il s’avère que les inorganiques jouent un rôle important lors de la pyrolyse : le comportement de la paille de blé, une biomasse riche en inorganiques, ne peut pas être décrit par de telles corrélations. Des écarts moins significatifs entre les valeurs obtenues par les corrélations théoriques et celles provenant des résultats expérimentaux sont observés pour les mélanges synthétiques et le bois de bouleau. En conclusion, l’hypothèse d’une corrélation simple, appelée loi prévisionnelle, ne semble pas être justifiée sur les vitesses de formation de produits. Un modèle est alors développé qui permet de décrire le comportement pyrolytique à l’aide de courbes non linéaires pour la perte de masse et la production des produits. A l’exception de la paille de blé, de nouvelles lois prévisionnelles additives peuvent alors être déterminées de manière très satisfaisante au regard de la précision des mesures expérimentales
The fast pyrolysis of different types of celluloses, lignins, xylanes as well as different mixtures of these basic compounds and two real biomasses (birch wood and wheat straw) has been studied in an image furnace. The mass loss rates of each of the studied model compounds are very different, but usually higher for cellulose than xylane and higher for xylane than lignins. Lignins begin to react before xylane and cellulose. For a given pyrolysis time, lignins produce more char than xylane. Char formation from cellulose remains insignificant, close to zero. Microgranular cellulose gives mainly rise to vapours and very little gas is formed. Cellulose extracted from birch wood shows an intermediate behaviour between microgranular cellulose and lignins. Production rates of gases are higher than those of vapours for xylan. Regarding the mixtures of these three compounds, an intermediate behaviour can be observed. Birch wood is more reactive than wheat straw. Its pyrolytic behaviour is similar with that of cellulose extracted from birch wood with regard to concerning mass loss rates and vapours formation. A simple additive correlation relying on mass loss rates and products formations rates is elaborated and the results compared to the experimental values. It appears that inorganics play an important role in biomass pyrolysis : the pyrolytic behaviour of wheat straw, a biomass which is rich in inorganics, cannot be described by simple additive correlations. Less significant gaps between expected rates obtained by the correlations and the observed rates obtained by the experiments are found for synthetic mixtures and birch wood. In conclusion, the hypothesis of linear correlations cannot be supported for representing the products formations rates. A complete mathematical model is then developed revealing a non-linear behaviour of the variations of mass losses and products formations. Except for wheat straw, new additive correlations are then determined. The agreement with the experimental results is very satisfying with regard to the measurements accuracies
APA, Harvard, Vancouver, ISO, and other styles
9

Ramdani, Youcef. "Étude à l'aide d'un interféromètre à trois ondes 9275 MHz de la résonance de composites soumis à un champ magnétique : confrontation des résultats aux lois des mélanges en εμ." Bordeaux 1, 1989. http://www.theses.fr/1989BOR10577.

Full text
Abstract:
L'auteur a mesure les variations sous champ magnetique du coefficient de reflexion en phase et en amplitude d'echantillons de poudres comprimees en proportions variables (magnetite + p. V. C. ; ses quioxyde de fer + alumine; fer + p. V. C. ); en ligne court-circuitee et en ligne ouverte (von hippel). Partant des mesures sans champ il a pu remonter aux valeurs complexes de la permittivite et de la permeabilite avec champ magnetique. Ces resultats ont ete ensuite confrontes aux lois des melanges pour des valeurs variables du produit permittivite permeabilite
APA, Harvard, Vancouver, ISO, and other styles
10

Roquier, Gérard. "Etude de la compacité optimale des mélanges granulaires binaires : classe granulaire dominante, effet de paroi, effet de desserrement." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1001/document.

Full text
Abstract:
La compacité des matériaux granulaires est une grandeur qui intéresse un grand nombre de secteurs, notamment les bétons hydrauliques. Lorsque les fractions granulaires ne possèdent pas des rapports de tailles infinis, deux interactions géométriques se développent : l’effet de paroi et l’effet de desserrement. La première peut se décrire ainsi : une grosse particule isolée constitue un « intrus » contre lequel viennent se ranger les petites particules, créant un supplément de vides à l’interface. La seconde se produit lorsque les petits grains sont insuffisamment fins pour se glisser entre les gros. Nous analysons comment elles sont prises en compte dans un certain nombre de modèles d’empilement en nous fixant finalement sur celui de de Larrard et al. : le modèle d’empilement compressible (MEC), l’un des plus efficaces. Dans celui-ci, les effets de paroi et de desserrement sont quantifiés par l’intermédiaire de deux coefficients dont les expressions sont obtenues par lissage de données expérimentales en fonction du rapport des diamètres fins/gros. Cependant, il n’existe aucune théorie pleinement satisfaisante permettant de les obtenir. Cette thèse vise à combler ce chaînon manquant. Nous avons conduit notre étude dans le cadre des empilements ordonnés et compacts de particules afin d’être en adéquation avec les hypothèses de constitution du MEC qui propose, comme préalable à l’obtention de la compacité réelle, la détermination d’une compacité virtuelle définie comme la compacité maximale susceptible d’être atteinte si l’on pouvait déposer, un à un, chaque grain à son emplacement idéal. Cette façon de procéder permet la création de cellules élémentaires juxtaposées. Dans ce cadre, l’interaction exercée par une espèce granulaire sur une autre de taille différente est menée à partir d’une étude localisée autour d’une particule « intruse » de la classe dominée, entourée de particules de la classe dominante. La simulation numérique apporte une confirmation de la validité du modèle. En plus de fournir des coefficients d’effets de paroi et de desserrement très proches de ceux prédits théoriquement, elle a permis l’étude d’empilements désordonnés de compacité maximale pour des billes bidispersées sans frottement dont les rapports de tailles valent 0,2 et 0,4. Le concept de « pressions partielles », qui tient compte à la fois des aspects géométrique et mécanique, a permis d’affiner la notion de classe dominante et de mieux appréhender la constitution du squelette porteur de l’édifice granulaire. En plus des zones constituées par les « fins dominants » et par les « gros dominants », il existe une zone mixte que nous avons dénommée « zone de synergie du squelette porteur » où les « pressions partielles » fines-grosses sont les plus importantes. En tenant compte de la nouvelle théorie développée pour les interactions géométriques, le modèle d’empilement compressible (MEC) subit une évolution et devient le MEC 4-paramètres, qui sont : les coefficients d’effet de paroi et d’effet de desserrement, le rapport de tailles de caverne critique et l’indice de compaction du mélange. Ce dernier ayant subi un nouvel étalonnage, le MEC 4-paramètres montre son efficacité quant à la prédiction de compacités sur mélanges binaires à partir de l’analyse de 780 résultats obtenus sur différents types de matériaux. Enfin, un modèle visant à prédire la viscosité d’une suspension concentrée de particules sphériques multidimensionnelles suspendues dans un fluide visqueux est présenté. Compatible avec la relation d’Einstein, il fait appel au concept de changement d’échelle de Farris et à une loi de viscosité de type Krieger-Dougherty. Lorsque la fraction volumique de solide atteint sa valeur critique, la suspension devient empilement et le mélange atteint la compacité du squelette solide déterminée par le MEC 4-paramètres
Packing density of granular materials is a quantity which interests many sectors, in particular hydraulic concrete. When two monodimensional grain classes have no very different sizes, two geometrical interactions develop : the wall effect and the loosening effect. The first one express the perturbation of the packing of the small grains at the interface between large and small grains. The second one occurs when small grains are not enough fine to insert into small cavities created by the touching larger grains. We analyze how they are taken into account in existing packing models. We select finally the compressible packing model (CPM) of de Larrard et al., one of the most effective. In this one, wall effect and loosening effect are quantified by two coefficients. They can, of course, be calculated from experimental results on binary mixtures, as a function of fine/coarse diameter ratios. However, there is no satisfactory theory allowing to calculate them. This doctoral thesis is done to fill this missing link. Ordered and very packed piles of particles are used as a reference frame to be in adequation with the CPM assumptions which require, before the calculation of the real packing density, the determination of a virtual packing density. The latter is defined as the maximum packing density attainable if each particle could be positioned in its ideal location. This approach allows the creation of elementary juxtaposed cells. In that context, the effect of a smaller grain (loosening effect) or a larger grain (wall effect) on the packed class is based on the study of a foreign sphere surrounded by dominant class neighbours. The numerical simulation confirms the validity of the model. In addition to predict wall effect and loosening effect coefficients close to those determined theoretically, numerical simulation was used to predict the solid fraction of maximally dense disordered packings of bidisperse spherical frictionless particles with 0,2 and 0,4 size ratios. The « partial pressures » concept, that includes both geometrical and mechanical aspects, allows to complete and improve the notion of dominant class and to better understand the build-up of the granular skeleton. In addition with « small grains packed » and « large grains packed » zones, the numerical simulation has highlighted a joint zone, called « synergism zone of the granular skeleton » where « partial pressures » fine-large particles are the most important. With this new theory developed for geometrical interactions, the compressible packing model (CPM) is evolving to the new 4-parameter CPM which are : the wall effect coefficient, the loosening effect coefficient, the critical cavity size ratio and the compaction index of the mixing, which requires a new recalibration. The 4-parameter CPM demonstrates its efficiency to predict the packing density of binary mixtures from the analysis of 780 results obtained on different types of materials. Finally, a model intended to predict the viscosity of a multimodal concentrated suspension with spherical particles suspended in a viscous fluid is presented. We resort to the iterative approach advocated by Farris and to a power-law relation (Krieger-Dougherty type) for the relative viscosity, compatible with the Einstein relation appropriate for a dilute suspension. When the solid volume fraction reaches its critical value, the suspension is jammed and the mixture reaches the packing density of the solid skeleton calculated with the 4-parameter CPM
APA, Harvard, Vancouver, ISO, and other styles
11

Guéna, Geoffroy. "Discussions sur l'évaporation d'une gouttelette mouillante." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00292745.

Full text
Abstract:
Cette thèse expérimentale porte sur l'évaporation d'une gouttelette mouillante : il s'agit d'un problème de ligne de contact mobile dans lequel deux processus de relaxation aux effets antagonistes (étalement et évaporation) s'opèrent de façon concomitante.
Le travail qui est rapporté fait suite à la thèse de C. Poulard soutenue en 2005 au sein de notre groupe. Il s'est dégagé de ce premier travail de grandes tendances : notamment, la phase de rétraction est caractérisée par l'existence de lois de puissance pour le rayon et l'angle de contact. Ce caractère particulier a donné lieu à un modèle élaboré en collaboration avec M. Ben Amar. Le domaine de validité de ce modèle peut toutefois être amélioré. Le manuscrit prend ainsi la forme d'une discussion illustrée de faits expérimentaux, où les hypothèses sont reprises, les processus invoqués, testés et au cours de laquelle l'accent est mis sur les points importants en vue d'une meilleure description de la dynamique de ces objets volatils.
Soulignons qu'en raison de la forme particulière du taux d'évaporation, la ligne de contact recule alors que l'angle de contact n'est pas nul. Or, cet angle est particulièrement significatif dans les dynamiques. Un accent particulier est porté sur la forme de l'interface liquide au niveau de la ligne de contact, gouvernée par un réel problème d'hydrodynamique. Notamment, des tests précis sur le couplage entre l'évaporation et les écoulements hydrodynamiques à l'extension maximale sont menés et les résultats de cette étude sont appliqués avec succès à la remise à l'échelle des dynamiques.
Nous abordons dans une seconde partie, la question peu typique de l'évaporation d'une goutte de mélange. Dans un tel système, l'évaporation provoque un défaut du composé le plus volatil au niveau de la ligne de contact. Nous verrons dans cette partie que les hétérogénéités ainsi créées sont à l'origine de gradients de tension de surface qui contrôlent les dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
12

Mdarhri, A. "Propriétés électromagnétiques de matériaux hétérogènes: Approche expérimentale et modélisation." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00583599.

Full text
Abstract:
Ce travail présente, tout d'abord, l'étude des propriétés électriques (conductivité, permittivité) d'une matrice thermoplastique contenant du noir de carbone. Nous mettons en évidence les facteurs influençant ces propriétés en continu, basses fréquences et en micro-ondes à l'aide des techniques de spectroscopie diélectrique dynamique. L'influence de déformations mécaniques uniaxiales sur la permittivité en micro-ondes a été étudiée. Ensuite, les effets de la nature de la matrice et de l'arrangement spatial des nanotubes de carbone multiparois NTC sur les propriétés électriques des composites époxyde/NTC et latex /NTC ont été abordés. Les théories de la percolation et du milieu effectif sont utilisées pour décrire les mécanismes de transport électronique dans ces composites.
APA, Harvard, Vancouver, ISO, and other styles
13

Mendieta, Tenorio Aída. "Clay characterization using spectral induced polarization." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS050.

Full text
Abstract:
Les argiles sont répandues dans la proche surface de la Terre, et ont un fort impact sur la perméabilité des formations géologiques. Leur très faible perméabilité fait des formations argileuses des "pièges géologiques" d’intérêt dans divers domaines d’étude des géosciences (notamment pour le pétrole et le gaz, la géothermie, le stockage des déchets nucléaires, entre autres). Les minéraux argileux présentent une charge de surface et une surface spécifique très importantes, ce qui génère le développement d’une double couche électrique particulièrement importante. La polarisation provoquée spectrale (PPS) est une méthode géoélectrique active qui permet d’obtenir de manière non-invasive la conductivité électrique complexe en fonction de la fréquence d’un géo-matériau du mHz au kHz. La conductivité complexe informe sur la capacité du matériau sondé à conduire un courant électrique et sur sa capacité à se polariser (à mobiliser de manière réversible des charges électriques). Cette thèse présente un protocole de laboratoire détaillé pour obtenir des mesures de PPS sur différents types d’argiles à des salinités variables, ainsi que des mélanges hétérogènes artificiels d’illite et demontmorillonite. Les résultats de la première étude montrent que la partie réelle de la conductivité électrique augmente avec la salinité, mais la partie imaginaire augmente jusqu’à un maximum et puis diminue. Cette diminution est due à la coagulation des argiles à hautes salinités. Cette coagulation potentielle des argiles altérerait l’espace poral puis modifierait les mécanismes de polarisation en jeu. Par ailleurs, en comparant le rapport de la conductivité de surface (imaginaire versus réelle) et d’autres données de la littérature, on remarque que ce rapport diminue avec la teneur en argile. Pour la deuxième étude, on observe que la montmorillonite domine la polarisation par rapport à l’illite. Cependant, les deux argiles ont un effet sur la conduction des mélanges. Les lois de mélanges sont une approche efficace pour modéliser ce type de mélange hétérogène d’argiles. Les modèles de réseaux de conductance complexes sont également utiles pour prédire la forme des spectres de polarisation. Les résultats de ce travail de thèse ouvrent de nouvelles perspectives pour la caractérisation des matériaux argileux avec la PPS
Clays are ubiquitously present in the Earth’s near surface and they have a high impact on the permeability of a system. Due to this property, clay formations are used in a variety of geology related applications (oil and gas, geothermal, nuclear waste storage, critical zone research, among others). Clays have a high surface charge and a high specific surface area, this property gives clays a particularly strong electrical double layer (EDL). Spectral induced polarization (SIP) is an active geo-electrical method thatmeasures in a non-invasive manner the frequency-dependent complex conductivity of a geo-material from themHz to the kHz. The complex conductivity informs about the ability the probed material has to conduct an electrical current and the ability to polarize (to reversibly store electrical charges). This thesis presents a detailed laboratory protocol to obtain SIP measurements of different types of clay at varying salinities, as well as an artificial heterogeneous mixture of illite and red montmorillonite with a salinity of around 10¡2 mol L¡1. The results of the first study show that the real part of the electrical conductivity increases with salinity, but the imaginary part increases until a maxima and then decreases. An interpretation of the decrease can come fromthe fact that clays coagulate at high salinities. The potential coagulation of clays would alter the pore space and then alter the polarization mechanisms in play. Furthermore, when comparing the ratio of the surface conductivity (imaginary versus real) of these resultswith other data in the literature, we notice that this ratio decreaseswith clay content. For the second study, we observe that red montmorillonite dominates the polarization with respect to illite. However, both clays effect the conduction of the mixtures. Mixing laws are an effective approach to model the complex conductivity of these heterogeneous mixtures. Complex conductance network models are better at predicting the shape of the polarization spectra. The results of this thesis work open new opportunities for clay characterization using SIP
APA, Harvard, Vancouver, ISO, and other styles
14

Vachon, Lachance Emmanuel. "Étude paramétrique de l'agglomération des systèmes granulaires pharmaceutiques secs lors de l'étape de mélange." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5422.

Full text
Abstract:
La motivation principale de la présente étude est la compréhension des phénomènes d’agglomération particulaire des systèmes granulaires pharmaceutiques secs dans l’étape de mélange. Une meilleure compréhension des phénomènes d’agglomération est nécessaire puisqu’ils peuvent créer un problème lors de la production pharmaceutique. La traduction de ces connaissances en méthodes peut minimiser les phénomènes d’agglomération non désirés pendant les procédés de production de mélanges particulaires pharmaceutiques secs. Cette étude pourrait contribuer à une meilleure qualité du médicament au patient tout en réduisant les délais et les coûts causés par les mesures correctives en production. Ces travaux de recherche visent à comprendre quelle est la cause fondamentale et quelle est l’influence des différents paramètres sur l’agglomération dans les systèmes granulaires pharmaceutiques secs. L’état de l’art résume les éléments-clés tels que les facteurs intrinsèques, la théorie du mélange particulaire, la ségrégation, la théorie de l’agglomération particulaire, les mécanismes d’agglomération, les forces d’adhésion, les facteurs extrinsèques, les techniques d’analyse de laboratoire et l’analyse multivariée. Plusieurs paramètres pouvant avoir un impact sur l’agglomération lors d’un mélange complexe pharmaceutique ont été étudiés par imagerie dans un tambour rotatif. L’humidité de la poudre favorise l’agglomération, une petite distribution des tailles de particules tend à rendre le mélange cohésif et une valeur élevée de temps de mélange ainsi que de vitesse de rotation du mélangeur tend à désagglomérer. Certaines matières premières ont été identifiées comme problématiques lors de l’ajout dans un mélange. Une forte humidité de 90 %HR du milieu ambiant protège contre la désagglomération. Cependant, tous ces paramètres ont montré des tendances peu significatives. Le temps statique (chargement) est le paramètre dominant ayant eu le plus d’influence sur l’agglomération lors de l’étude du mélange. Étant donné la découverte du fort comportement agglomératif du chlorure de potassium comme résultat, une autre étude paramétrique a permis de comprendre davantage son mécanisme d’agglomération. Les paramètres significatifs de l’étude sont l’humidité de conditionnement, le séchage, le temps de conditionnement et la distribution de taille de particules. La pression exercée à l’échantillon n’est pas un paramètre significatif pour l’agglomération. Le présent mémoire permettra d’enrichir la connaissance dans cette science particulaire et celle de l’agglomération qui sont omniprésentes. Ce mémoire propose deux méthodes pour étudier l’agglomération ; par imagerie en milieu dynamique et par des tests de rupture d’agglomérat en milieu statique. Ce projet démontre le désir et l’initiative canadienne pharmaceutique de poursuivre l’avancement des technologies d’analyse des procédés (PAT) dans les domaines novateurs reliés à l’assurance qualité et à la production. L’industrie pharmaceutique arrivera à mieux maîtriser leur procédé de mélange et à éviter les problèmes engendrés par l’agglomération.
APA, Harvard, Vancouver, ISO, and other styles
15

Kamary, Kaniav. "Lois a priori non-informatives et la modélisation par mélange." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED022/document.

Full text
Abstract:
L’une des grandes applications de la statistique est la validation et la comparaison de modèles probabilistes au vu des données. Cette branche des statistiques a été développée depuis la formalisation de la fin du 19ième siècle par des pionniers comme Gosset, Pearson et Fisher. Dans le cas particulier de l’approche bayésienne, la solution à la comparaison de modèles est le facteur de Bayes, rapport des vraisemblances marginales, quelque soit le modèle évalué. Cette solution est obtenue par un raisonnement mathématique fondé sur une fonction de coût.Ce facteur de Bayes pose cependant problème et ce pour deux raisons. D’une part, le facteur de Bayes est très peu utilisé du fait d’une forte dépendance à la loi a priori (ou de manière équivalente du fait d’une absence de calibration absolue). Néanmoins la sélection d’une loi a priori a un rôle vital dans la statistique bayésienne et par conséquent l’une des difficultés avec la version traditionnelle de l’approche bayésienne est la discontinuité de l’utilisation des lois a priori impropres car ils ne sont pas justifiées dans la plupart des situations de test. La première partie de cette thèse traite d’un examen général sur les lois a priori non informatives, de leurs caractéristiques et montre la stabilité globale des distributions a posteriori en réévaluant les exemples de [Seaman III 2012]. Le second problème, indépendant, est que le facteur de Bayes est difficile à calculer à l’exception des cas les plus simples (lois conjuguées). Une branche des statistiques computationnelles s’est donc attachée à résoudre ce problème, avec des solutions empruntant à la physique statistique comme la méthode du path sampling de [Gelman 1998] et à la théorie du signal. Les solutions existantes ne sont cependant pas universelles et une réévaluation de ces méthodes suivie du développement de méthodes alternatives constitue une partie de la thèse. Nous considérons donc un nouveau paradigme pour les tests bayésiens d’hypothèses et la comparaison de modèles bayésiens en définissant une alternative à la construction traditionnelle de probabilités a posteriori qu’une hypothèse est vraie ou que les données proviennent d’un modèle spécifique. Cette méthode se fonde sur l’examen des modèles en compétition en tant que composants d’un modèle de mélange. En remplaçant le problème de test original avec une estimation qui se concentre sur le poids de probabilité d’un modèle donné dans un modèle de mélange, nous analysons la sensibilité sur la distribution a posteriori conséquente des poids pour divers modélisation préalables sur les poids et soulignons qu’un intérêt important de l’utilisation de cette perspective est que les lois a priori impropres génériques sont acceptables, tout en ne mettant pas en péril la convergence. Pour cela, les méthodes MCMC comme l’algorithme de Metropolis-Hastings et l’échantillonneur de Gibbs et des approximations de la probabilité par des méthodes empiriques sont utilisées. Une autre caractéristique de cette variante facilement mise en œuvre est que les vitesses de convergence de la partie postérieure de la moyenne du poids et de probabilité a posteriori correspondant sont assez similaires à la solution bayésienne classique
One of the major applications of statistics is the validation and comparing probabilistic models given the data. This branch statistics has been developed since the formalization of the late 19th century by pioneers like Gosset, Pearson and Fisher. In the special case of the Bayesian approach, the comparison solution of models is the Bayes factor, ratio of marginal likelihoods, whatever the estimated model. This solution is obtained by a mathematical reasoning based on a loss function. Despite a frequent use of Bayes factor and its equivalent, the posterior probability of models, by the Bayesian community, it is however problematic in some cases. First, this rule is highly dependent on the prior modeling even with large datasets and as the selection of a prior density has a vital role in Bayesian statistics, one of difficulties with the traditional handling of Bayesian tests is a discontinuity in the use of improper priors since they are not justified in most testing situations. The first part of this thesis deals with a general review on non-informative priors, their features and demonstrating the overall stability of posterior distributions by reassessing examples of [Seaman III 2012].Beside that, Bayes factors are difficult to calculate except in the simplest cases (conjugate distributions). A branch of computational statistics has therefore emerged to resolve this problem with solutions borrowing from statistical physics as the path sampling method of [Gelman 1998] and from signal processing. The existing solutions are not, however, universal and a reassessment of the methods followed by alternative methods is a part of the thesis. We therefore consider a novel paradigm for Bayesian testing of hypotheses and Bayesian model comparison. The idea is to define an alternative to the traditional construction of posterior probabilities that a given hypothesis is true or that the data originates from a specific model which is based on considering the models under comparison as components of a mixture model. By replacing the original testing problem with an estimation version that focus on the probability weight of a given model within a mixture model, we analyze the sensitivity on the resulting posterior distribution of the weights for various prior modelings on the weights and stress that a major appeal in using this novel perspective is that generic improper priors are acceptable, while not putting convergence in jeopardy. MCMC methods like Metropolis-Hastings algorithm and the Gibbs sampler are used. From a computational viewpoint, another feature of this easily implemented alternative to the classical Bayesian solution is that the speeds of convergence of the posterior mean of the weight and of the corresponding posterior probability are quite similar.In the last part of the thesis we construct a reference Bayesian analysis of mixtures of Gaussian distributions by creating a new parameterization centered on the mean and variance of those models itself. This enables us to develop a genuine non-informative prior for Gaussian mixtures with an arbitrary number of components. We demonstrate that the posterior distribution associated with this prior is almost surely proper and provide MCMC implementations that exhibit the expected component exchangeability. The analyses are based on MCMC methods as the Metropolis-within-Gibbs algorithm, adaptive MCMC and the Parallel tempering algorithm. This part of the thesis is followed by the description of R package named Ultimixt which implements a generic reference Bayesian analysis of unidimensional mixtures of Gaussian distributions obtained by a location-scale parameterization of the model. This package can be applied to produce a Bayesian analysis of Gaussian mixtures with an arbitrary number of components, with no need to specify the prior distribution
APA, Harvard, Vancouver, ISO, and other styles
16

Altaleb, Anas. "Méthodes d'échantillonnage par mélanges et algorithmes MCMC." Rouen, 1999. http://www.theses.fr/1999ROUES034.

Full text
Abstract:
Nous abordons dans cette thèse, deux aspects distincts : (a) la construction et le test de certaines méthodes de simulation pour l'approximation des intégrales. Nous étudions en particulier les estimateurs de Monte Carlo auxquels il est souvent fait appel dans le traitement de modèles statistiques complexes. Notre apport en ce domaine consiste en l'utilisation des mélanges pour la stabilisation des échantillonnages d'importance. Pour valider l'estimateur pondéré, il est indispensable d'étudier son comportement pour les méthodes MCMC qui permettent la mise en œuvre d'une forme généralisée de l'estimateur pondéré. L'estimateur pondéré obtenu améliore à nouveau l'estimateur standard de Monte Carlo en termes de réduction de la variance et de vitesse de convergence. Cette forme généralisée de l'estimateur pondéré permet d'étendre le domaine d'application de notre estimateur à une grande classe de problèmes d'intégration rencontrés en statistique. (b) l'étude d'un modèle de régression non linéaire généralisée, le modèle Logit, suivant deux méthodes : celle de Damien et Walker (1997) et une technique générique de Hastings-Metropolis. L'ensemble des résultats exposés est illustré par différentes simulations, qui montrent les comportements et les performances de l'algorithme de Hastings-Metropolis en termes de vitesse de convergence vers la loi stationnaire et de rapidité d'exploration de la surface de la loi a posteriori, par rapport à la méthode de Damien et Walker.
APA, Harvard, Vancouver, ISO, and other styles
17

Lakel, Rabah. "Contribution à l'identification des mélanges gaussiens à l'aide d'une approche récursive." Lille 1, 1987. http://www.theses.fr/1987LIL10009.

Full text
Abstract:
Définition d'une approche récursive pour identifier les mélanges gaussiens modélisant des systèmes dynamiques. On traite de l'optimisation des systèmes complexes, de l'affinement des estimations des paramètres statiques des différentes composantes d'un mélange gaussien et de l'estimation des critères de séparabilité de ces composantes en des points de l'espace d'observation ou leur mélange est maximum
APA, Harvard, Vancouver, ISO, and other styles
18

Eyi-Minko, Frédéric. "Propriétés des processus max-stables : théorèmes limites, lois conditionnelles et mélange fort." Thesis, Poitiers, 2013. http://www.theses.fr/2013POIT2282/document.

Full text
Abstract:
Le thème de cette thèse est la théorie spatiale des valeurs extrêmes, et les objets principalement étudiés sont les processus max-stables à trajectoires continues. Nous commençons par déterminer la convergence des maximums de processus stochastiques indépendants, en utilisant la convergence de mesures empiriques vers des processus ponctuels de Poisson. Ensuite, nous déterminons les lois conditionnelles des processus max infiniment divisibles (max-i.d). La représentation des processus max-i.d par des processus ponctuels de Poisson permet l'introduction de notions telles que les fonctions extrémales et le hitting scénario qui permettent d'aboutir au résultat. Les processus max-stables étant des processus max-i.d, nous proposons un algorithme de simulation conditionnelle pour les champs max-stables puis nous l'utilisons pour des applications avec des données de précipitations autour de Zurich et de températures en Suisse. Nous trouvons aussi, une majoration du coefficient de β-mélange entre les restrictions d'un processus max-i.d sur deux sous-ensembles fermés et disjoints d'un espace métrique localement compact. Cette majoration permet d'obtenir de nouveaux critères pour le théorème de la limite central des processus stationnaires mélangeant. Enfin, nous terminons en démontrant qu'un processus stationnaire max-stable vérifiant la propriété de Markov est, quitte à renverser le temps, un processus max-autorégressif d’ordre 1
The theme of this thesis is spatial extreme value theory and we focus on continuous max-stable processes. We begin with the convergence of the maximum of independent stochastic processes, by using the convergence of empirical measures to Poisson point processes. After that, we determine the regular conditional distributions of max infinitely divisible (max-i.d) processes. The representation of max-i.d. processes by Poisson point processes allows us to introduce the notions of extremal functions and hitting scenario. Our result relies on these new notions. Max-stable processes are max-i.d. processes, so we give an algorithm for conditional sampling and give an application to extreme precipitations around Zurich and extreme temperatures in Switzerland. We also find a upper bound for the β-mixing coefficient between the restrictions of a max-i.d. process on two disjoint closed subsets of a locally compact metric space. This entails a central limit theorem for stationary max-i.d processes. Finally, we prove that the class of stationary maxstable processes with the Markov property is equal, up to time reversal, to the class of stationary max-autoregressive processes of order 1
APA, Harvard, Vancouver, ISO, and other styles
19

Duplat, Jérôme. "Mélange turbulent : sources élémentaires et loi de composition." Grenoble 1, 1999. http://www.theses.fr/1999GRE10122.

Full text
Abstract:
On aborde le probleme du melange turbulent a travers l'evolution temporelle d'une tache de traceur de petite taille dans un milieu turbulent beaucoup plus large. Cette situation d'injection ponctuelle est caracterisee par l'histogramme des niveaux de concentration (pdf) qui presente, a chaque instant, une aile exponentielle du cote des fortes concentrations. L'argument de cette aile croit lineairement dans le temps ce qui permet de definir un temps de melange. On etablit les dependances de ce temps a la diffusivite du traceur, a la taille initiale de la tache, et a l'agitation du milieu. Dans nos experiences, le champ scalaire s'organise sous forme de feuillets de fluide concentre, immerges dans un ocean de fluide de concentration faible. Sa structure spatiale est totalement decorelee au-dela de l'echelle caracteristique sur laquelle s'etablissent les gradients de concentration. Le spectre de puissance du champ de concentration presente alors une pente de (1). On montre ensuite comment le probleme general du melange turbulent peut se comprendre comme une superposition d'injections ponctuelles. On est en effet capable de reconstruire la pdf de concentration sur l'axe d'un jet, en considerant que le champ est issu d'une multitude de sources de scalaire, situees a la peripherie du jet.
APA, Harvard, Vancouver, ISO, and other styles
20

Hocq, Hervé. "Etude expérimentale et modélisation thermodynamique des mélanges méthanol-eau-hydrocarbures." Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30016.

Full text
Abstract:
Une methode predictive de calcul thermodynamique est proposee pour la representation des equilibres de phases des systemes methanol-eau-hydrocarbures. Cela comprend la modelisation des equilibres liquide-liquide et liquide-vapeur des binaires concernes par ces systemes, jusqu'aux equilibres triphasiques de melanges complexes d'hydrocarbures comprenant de l'eau et du methanol. Cette methode, fondee sur l'approximation d'ordre zero de la theorie quasi-reticulaire de e. A. Guggenheim, associe une fonction d'exces a une equation d'etat selon le formalisme a compacite constante defini par a. Peneloux. L'equation d'etat choisie est l'equation cubique de peng-robinson corrigee et la fonction d'exces regroupe deux termes : le premier represente le terme physique, qui comprend une nouvelle formulation des regles de melanges a deux parametres d'interaction binaire dependant de la composition, ainsi qu'une methode de contributions de groupes ; le deuxieme represente le terme chimique reprenant le modele d'association du methanol cree defini par c. Berro et e. Rauzy. Une seconde partie, rendue necessaire par l'insuffisance de determinations experimentales thermodynamiques pour plusieurs composes et dans certains domaines de pression et de temperature, est consacree a la mise au point d'un ensemble experimental de mesures pvt haute-pression, gere par informatique. Le domaine d'etude de ce dernier s'etend de 1 a 700 bars et de 240 a 470 k. Cet appareillage presente la particularite de comprendre pour cellule de mesure un soufflet, dont l'etalonnage nous a permis d'acceder au volume des fluides etudies. Ainsi 400 mesures pression-volume-temperature sur le methanol, l'eau, le toluene et le binaire methanol-eau ont ete realisees
APA, Harvard, Vancouver, ISO, and other styles
21

Lemaire, Anne-Sophie. "Une approche par mélange des lois L 1-symetriques et estimation d'un paramètre de position." Rouen, 1997. http://www.theses.fr/1997ROUES081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Gogibus, Nicolas. "Études des propriétés thermophysiques et électro-optiques de mélanges de polysiloxanes et de cristaux liquides." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-327.pdf.

Full text
Abstract:
Les propriétés thermophysiques et électro-optiques de composites polymères / cristaux liquides appelés PDLC (Polymer Dispersed Liquid Crystals) ont été examinées. La fonctionnalité électro-optique de ces matériaux est la base des applications commme les vitrages à opacité controlée. Dans cette étude, les PDLC ont été obtenus par la séparation de phases entre un polysiloxane linéaire ou acrylique poly(diméthylsiloxane) (PDMS), poly(méthylphénylsiloxane) (PMPS) et un cristal liquide (CL) de faible masse moléculaire (4-cyano-4'-n-pentyl-biphényle-5CB, mélange commercial de dérivés de cyanoparaphénylenes-E7). Une analyse de la séparation de phases et de la morphologie en fonction de la composition, de la masse du polymère et l'élaboration du matériau a été menée afin de comprendre et d'améliorer les propriétés électro-optiques
Dans le cas des systèmes linéaires, l'analyse par microscopie optique a révélé une dispersion de domaines CL sous forme de gouttes dans la matrice polymère amorphe. Lorsque le CL est mélangé au PDMS, un domaine biphasique isotrope-isotrope a été observé sur un large intervalle de températures. Cette texture a été également détectée et examinée par diffusion de la lumière. Une étude des diagrammes de phases a révélé une diminution significative de la miscibilité avec la masse du polymère dans le cas du 5CB. L'emploi du PMPS comme polymère augmente considérablement la solubilité du CL. Par Analyse Enthalpique Différentielle, un effet de plastification du E7 a été observé dans ce polymè́re. Uneétude utilisant les mêmes méthodes d'analyse physique mais sur le système PDMS acrylique / 5CB, polymérisé sous EB (bombardement électronique), a montré également une forte incompatibilité entre les deux constituants. La structure varie peu avec la composition et semble être formée d'objets petits (1 à 2[mu]m) interconnectés de cristal liquide dans le réseau polymère. Une étude électro-optique sur les films PDLC révèle que l'emploi d'une matrice polymère de type réseau PDMS fourni des tensions d'adressage et une hystérésis faibles. Ces propriétés électro-optiques ont été discutées en fonction des résultats d'analyses thermophysiques et de morphologie
APA, Harvard, Vancouver, ISO, and other styles
23

Merabet, Hayet. "Mélanges de probabilités de Dirichlet : neutralité dans les espaces probabilistes aléatoires." Rouen, 1986. http://www.theses.fr/1986ROUES025.

Full text
Abstract:
Après une présentation systématique et une généralisation des résultats relatifs aux mélanges de probabilités de Dirichlet et leur usage en statistique bayésienne non paramétrique, une synthèse des travaux sur les différentes notions de "neutralité" est faite à partir d'une définition qui englobe toutes celles données dans la littérature
APA, Harvard, Vancouver, ISO, and other styles
24

Nguyen, Huynh Dong. "Modélisation thermodynamique de mélanges symétriques et asymétriques de composés polaires oxygénés et/ou aromatiques par GC-SAFT." Paris 13, 2008. http://www.theses.fr/2008PA132003.

Full text
Abstract:
L’objectif principal de cette étude est la modélisation, aussi prédictive que possible, des équilibres de phases liquide-vapeur et/ou liquide-liquide de mélanges contenant des composés polaires plus ou moins complexes et d'intérêt pour l'industrie pétrolière. Le modèle utilisé se base sur l’équation d’état SAFT combinée avec la méthode contribution de groupe proposée par Tamouza (GC-SAFT). GC-SAFT a été ici étendu aux composés polaires (théorie de Gubbins et Twu modifiée par l'approche segment de Jog et Chapman) et testée systématiquement sur un grand nombre de mélanges comprenant des aromatiques, alcools, esters, éthers, aldéhydes, cétones et divers hydrocarbures en pure prédiction (kij = lij = 0). Une nouvelle méthode de contribution de groupes a également été proposée pour évaluer le paramètre d’interaction binaire kij dans le cas des mélanges contenant un composé spécifique: CO2, CH4, C2H6, H2S, N2, CO, CH4O et O2. Cette méthode est basée sur la théorie London et n'utilise que des paramètres de corps purs. GC-SAFT polaire a enfin été testée sur des systèmes contenant des composés multi-fonctionnels: diesters, esters aromatiques, et alkyl-phénols. Plus de 650 mélanges ont été ainsi considérés. Les écarts moyens sur la pression de bulle sont d'environ 5% ce qui est tout à fait acceptable pour une méthode prédictive
The main goal of this study is an as predictive as possible modeling of liquid-vapor and/or liquid-liquid phase equilibria of mixtures containing more or less complex polar compounds of interest for petroleum industry. The model used is based on a SAFT equation of state combined with a group contribution method proposed by Tamouza (GC-SAFT). GC-SAFT has been extended here to polar compounds (Theory of Twu and Gubbins extended to chain molecules by the 'segment approach' of Jog and Chapman). Pure prediction (kij=lij=0) systematic tests of the model have been performed on a large number of mixtures of aromatics, alcohols, esters, ethers, aldehydes, ketones and various hydrocarbons. A new group contribution has also been proposed in order to evaluate the kij binary interaction parameter in the case of mixtures containing some specific small molecules as CO2, CH4, C2H6, H2S, N2, CO, CH4O and O2. This method is based on the London theory of dispersive intermolecular forces and uses only pure species parameters. Polar GC-SAFT has been also tested on systems containing multi-functional compounds as diesters, aromatic esters, aromatiques ethers and alkyl phenols. More than 650 mixtures have been considered. Average deviations on bubble pressure are about 5% which can be considered quite acceptable for a predictive method
APA, Harvard, Vancouver, ISO, and other styles
25

Daridon, Jean-Luc. "Mesure et représentation des équilibres de phases sous pression de mélanges d'eau, de paraffines et dioxyde de carbone." Pau, 1992. http://www.theses.fr/1992PAUU3004.

Full text
Abstract:
Des déterminations expérimentales des conditions (p,t) d'équilibres de phases liquide-vapeur et liquide-liquide ont été conduites au sein d'une cellule saphir a visibilité intégrale a diverses températures comprises entre 293 et 423 k pour des pressions allant jusqu'a 500 bar sur le système ternaire c#1-co#2##nc#1#6. L'influence d'un apport d'eau sur les courbes d'équilibres de ce système a également fait l'objet d'investigations. En vue de représenter les équilibres de phase des fluides a partir d'équations d'état de forme cubique, qu'elles soient a deux, trois ou quatre paramètres, une méthode générale de calcul du coefficient de fugacité a été développée a partir du formalisme de Schmidt et Wenzel. Sur la base de ces équations d'état cubiques, une procédure globale de restitution des équilibres de phases de paraffine, de co#2, d'eau et de leurs mélanges a été mise au point. L'équation retenue pour cette procédure est celle de Peng-Robinson a laquelle il a été apporte des modifications. La première modification, concernant le terme d'attraction de l'équation d'état, permet une bonne représentation des transitions des corps purs, y compris de l'eau et des alcanes lourds (c#1#0 a c#2#0). La seconde modification consiste a faire intervenir une règle de mélange empirique spécifique aux mélanges d'eau et de paraffines dans la perspective de calculer les solubilités mutuelles de l'eau et des alcanes. On obtient également des résultats très satisfaisants pour les mélanges paraffine-paraffine et paraffines-co#2 en caractérisant les interactions binaires par des coefficients k#1#j évalués au moyen d'un formalisme de type contribution de groupes. L'intérêt essentiel de la modélisation ainsi définie est de permettre l'estimation prédictive des équilibres polyphasiques de ces mélanges fort dissymétriques; l'efficacité de la procédure alliée a une relative simplicite d'emploi constitue des critèr1es déterminants, susceptibles d'infléchir le choix d'utilisateurs potentiels.
APA, Harvard, Vancouver, ISO, and other styles
26

Masteau, Jean-Claude. "Compressibilité et cohésion de produits pharmaceutiques. Etude et modélisation du comportement de mélanges binaires." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1997. http://tel.archives-ouvertes.fr/tel-00841859.

Full text
Abstract:
Ces recherches ont pour objet d'améliorer la compréhension des phénomès de densification de poudres pharmaceutiques. Différents modèles ont été développés pour permettre d'expliquer les variations de propriétés des compacts (porosité, surface spécifique et résistance à la rupture) en fonction de paramètres opératoires (pression atteinte, durée de maintien sous pression). Les études menées sur le comportement des produits purs sont étendues à des mélanges binaires pour lesquels des lois de mélange originales sont décrites. Les modèles ont été validés sur différents excipients (lactose, saccharose, polyvinylpyrrolidone) et sur des principes actifs à base de kétoprofène. L'influence des paramètres morphologiques (taille des grains) et structuraux sur les propriétés precitées ont été mises en evidence.
APA, Harvard, Vancouver, ISO, and other styles
27

Ronceray, Lilian. "Méthodologies de réglage automatique temps-réel de lois de pilotage." Phd thesis, Toulouse, ISAE, 2009. http://tel.archives-ouvertes.fr/tel-00430820.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du réglage des lois de pilotage d'un avion de transport civil en phase de dévelop-pement. De par la représentativité limitée des modèles utilisés pour leur réglage initial, certaines lois de pilotages requièrent plusieurs itérations en essais en vol avant d'atteindre un niveau de performance satisfaisant. Il s'agit d'un processus long et coûteux que l'industriel cherche à raccourcir autant que possible. En partant du constat que les données issues des essais en vol sont peu utilisées par rapport aux modèles, nous avons élaboré des méthodologies permettant une exploitation utile de ces données à des fins de réglage de lois de commande. L'avion étant un système à paramètres variants, il faut alors tenir compte du fait que ces données ne sont valables que pour une petite région de son domaine de vol. Par conséquent, les modifications apportées sur les lois de commande, interpo-lées à l'aide des paramètres du domaine de vol, devront être répercutées uniquement dans cette petite région. Nous avons envisagé deux cas : celui d'un travail de retouche hors ligne (i.e. effectué en bureau d'études) et celui d'un réglage en ligne (i.e. directement sur l'avion pendant un vol d'essai). Ces deux aspects d'interpolation et de données locales nous ont fait choisir une méthode d'apprentissage locale pour interpoler les lois de commande. Il s'agit d'une forme de réseau de neurones appelée mélange d'experts dont la structure permet de diviser le domaine de vol en plusieurs sous-domaines et d'affecter à chacun d'eux une modélisation locale. Nous avons ensuite élaboré une méthodologie générique permettant de générer les données à interpoler, de définir la structure du mélange d'experts et d'effectuer son apprentis-sage à la fois dans un cadre hors ligne et en ligne. L'aspect génération de données constitue une part importante de la méthodologie. En effet, dans le cadre d'une loi de commande, l'obtention des données amenées à être interpolées n'est pas triviale. Nous proposons alors une méthode de synthèse basée sur l'inversion de données temporelles, pour le cas de lois feedforward. La structuration du mélange d'experts se compose du choix d'une subdivision optimale du domaine de vol, d'une sélection du type de la modélisation locale et de la gestion des pondérations affectées à chacun des modèles locaux. La méthodologie a fait l'objet de deux applications identifiées par Airbus comme reflétant le problème posé. La première concerne l'estimation du dérapage aérodynamique de l'avion et la seconde une loi feedforward de compensation d'aérofreins. Ces exemples montrent comment la méthode a permis de systématiser un processus de réglage fonctionnant jusque là « à tâtons » .
APA, Harvard, Vancouver, ISO, and other styles
28

Joseph, Caroline. "Application de l'analyse des mélanges gaussiens au calibrage géologique des données sismiques." Vandoeuvre-les-Nancy, INPL, 1994. http://docnum.univ-lorraine.fr/public/INPL_T_1994_JOSEPH_C.pdf.

Full text
Abstract:
Le but de cette thèse est d'utiliser les mélanges gaussiens dans le cadre du calibrage géologique des données sismiques permettant l'estimation de caractéristiques géologiques à partir des attributs sismiques au niveau du réservoir. Dans une première partie, nous présentons la méthode de décomposition en classes gaussiennes développée et le codage en fonctions indicatrices qu'elle peut induire. Les deux parties suivantes décrivent deux méthodes statistiques de calibrage (l'analyse canonique et la régression non paramétrique), et présentent l'utilisation des mélanges gaussiens dans le cadre de ces deux méthodes. Le dernier chapitre concerne l'application des méthodologies de calibrage obtenues aux données réelles d'un réservoir pétrolier: Ce réservoir est développé par une quarantaine de puits environ et couvert par une sismique 2D maille dense. Des attributs sismiques caractéristiques de la fenêtre temporelle centrée sur le réservoir ont été calibrés aux puits en termes d'épaisseurs cumulées des lithofaciès, permettant ainsi de prédire la distribution spatiale des faciès entre les puits, à partir de la sismique. Les résultats ainsi obtenus contribuent à une meilleure caractérisation du réservoir
APA, Harvard, Vancouver, ISO, and other styles
29

Souzy, Mathieu. "Mélange dans les suspensions de particules cisaillées à bas nombre de Reynolds." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4719/document.

Full text
Abstract:
J'ai étudié expérimentalement, à l'échelle de la taille des particules, les mécanismes à l'origine de l'intensification des transferts ayant lieu dans les suspensions cisaillées de particules non-inertielles et non-Browniennes. Dans un premier temps, l'expérience de Taylor est revisitée en étudiant l'évolution d'une goutte de colorant soumise à un cisaillement périodique. Au-delà d'une amplitude critique de déformation, la présence des particules brise la réversibilité du système et induit une forte dispersion de la goutte de colorant. Ensuite, en m'intéressant au transfert en proche paroi, j'ai montré que la rotation des particules sur la paroi induit un transport à flux constant d'un scalaire jusque dans le bulk de la suspension, brisant la couche limite diffusive. Une solution analytique du profil de concentration dans cette zone est proposée, en bon accord avec les expériences. Finalement, des mesures PIV haute résolution du fluide interstitiel dans le bulk de la suspension ont été réalisées. A partir de ces champs de vitesses, on a reconstruit l'historique d'étirement de lignes matérielles du fluide et ainsi déterminé les lois d'étirement, information fondamentale pour la compréhension du processus de mélange. La présence des particules change les lois d'étirement qui passent de linéaires dans un fluide pur, à exponentielles en présence de particules. Un modèle d'étirements multiplicatifs est proposé, qui prédit quantitativement l'évolution de la moyenne, de la variance, et la forme log-normale des distributions d'étirements mesurées expérimentalement. L'inhomogénéité des étirements dans les suspensions cisaillées implique une large distribution du temps de mélange
Mainly based on experiments, I investigated at a particle scale the mechanisms at the origin of the transfer enhancement in sheared non-Brownian and non-inertial particulate suspensions. First, I revisited Taylor's experiment, investigating the evolution of a drop of dye in a periodic shear. Beyond a critical strain amplitude, the presence of the particles breaks the reversibility of the system and the drop of dye is rapidly dispersed in the surrounding medium. Then, investigating the transfer process in the wall vicinity, I showed that in this region, the rotation of the particles convectively transport a scalar at a constant rate directly from the wall towards the bulk of the suspension, breaking the diffusive boundary layer. An analytical solution for the concentration profile in this region is proposed, in good agreement with experimental measurements. Lastly, high-resolution PIV measurements of the fluid phase were performed in the bulk of the suspension. Using these velocity fields, we reconstructed the stretching histories of fluid material lines to determine the stretching laws, crucial for the understanding of the mixing process. The presence of the particles changes the very nature of the stretching laws from linear, in a pure fluid, to exponential in the presence of particles. A multiplicative stretching model is proposed, which quantitatively predicts the experimentally measured evolution of the mean and the variance of the elongations of the fluid material lines as well as their evolution towards a log-normal distribution. The strong stretching inhomogeneity in sheared suspensions results in a broad distribution of the mixing time
APA, Harvard, Vancouver, ISO, and other styles
30

Schwander, Olivier. "Méthodes de géométrie de l'information pour les modèles de mélange." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00931722.

Full text
Abstract:
Cette thèse présente de nouvelles méthodes pour l'apprentissage de modèles de mélanges basées sur la géométrie de l'information. Les modèles de mélanges considérés ici sont des mélanges de familles exponentielles, permettant ainsi d'englober une large part des modèles de mélanges utilisés en pratique. Grâce à la géométrie de l'information, les problèmes statistiques peuvent être traités avec des outils géométriques. Ce cadre offre de nouvelles perspectives permettant de mettre au point des algorithmes à la fois rapides et génériques. Deux contributions principales sont proposées ici. La première est une méthode de simplification d'estimateurs par noyaux. Cette simplification est effectuée à l'aide un algorithme de partitionnement, d'abord avec la divergence de Bregman puis, pour des raisons de rapidité, avec la distance de Fisher-Rao et des barycentres modèles. La seconde contribution est une généralisation de l'algorithme k-MLE permettant de traiter des mélanges où toutes les composantes ne font pas partie de la même famille: cette méthode est appliquée au cas des mélanges de Gaussiennes généralisées et des mélanges de lois Gamma et est plus rapide que les méthodes existantes. La description de ces deux méthodes est accompagnée d'une implémentation logicielle complète et leur efficacité est évaluée grâce à des applications en bio-informatique et en classification de textures.
APA, Harvard, Vancouver, ISO, and other styles
31

Grynberg, Julien. "Mécanismes physiques et chimiques mis en jeu lors de la fusion du mélange SiO2-Na2CO3." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00829455.

Full text
Abstract:
Entre l'enfournement des matières premières sur le bain liquide et le verre la sortie du four, on peut s'interroger sur les étapes par lesquelles le mélange vitrifiable passe avant d'être transformé en un liquide homogène. D'un point de vue chronologique, l'élaboration du verre peut être considérée en trois étapes : l'état initial du mélange granulaire avant réaction ; l'étape de réaction chimique entre les différents constituants ; un liquide avec ses inclusions gazeuses et solides (bulles et quartz résiduel). Chacune de ces étapes concerne un domaine spécifique, avec un fort couplage entre physique et chimie. Aborder la façon dont réagissent ces matières premières ensemble et comment la microstructure peut influencer le chemin réactionnel suivi globalement par le mélange est indispensable pour savoir a chaque moment de la transformation quels mécanismes sont mis en jeu. Cela permettrait de corriger certains problèmes liés à l'élaboration d'un verre industriel (bulles piégé es dans le liquide, grains de quartz non incorporés au liquide, hétérogénéité chimique du liquide). La variété de phénomènes possibles lors de la fusion d'un mélange vitrifiable industriel nous poussera à simplifier le système un maximum, afin d'être capable de relier l'évolution de la microstructure à celle de la chimie du matériau. C'est la raison pour laquelle nous avons décidé d'étudier le système SiO2-Na2CO3. Nous avons de plus utilisé des grains tamisés dans des tranches précises, afin de pouvoir relier la transformation chimique du mélange à la répartition spatiale initiale du mélange granulaire.
APA, Harvard, Vancouver, ISO, and other styles
32

Priam, Rodolphe. "Méthodes de carte auto-organisatrice par mélange de lois contraintes. Application à l'exploration dans les tableaux de contingence textuels." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00532832.

Full text
Abstract:
Cette thèse d'intéresse à l'analyse exploratoire des données multimdimensionnelles souvent qualitatives voire textuelles par des modèles particuliers de carte auto-organisatrice de Kohonen. Il s'agit d'effectuer une classification et une projection simultanées des lignes ou colonnes d'une matrice de données. Le résultat de ces méthodes est une réduction sous la forme d'une surface de régression discrète. Nous étudions plus particulièrement les modèles de mélange de lois de probabilité : les paramètres correspondant aux espérances des vecteurs classés sont contraints en les plaçant aux nœuds d'une grille rectangulaire. Après une présentation de ces méthodes, et des algorithmes d'estimation basés sur l'EM (Expectation - Maximization), nous introduisons essentiellement deux nouvelles approches. La première vise à "généraliser la méthode d'Analyse Factorielle des Correspondances" aux grandes matrices : l'algorithme CASOM est un classifieur naïf de Bayes contraint en un TPEM (Topology Preserving EM) pour tableau de contingence. La seconde consiste en un schéma général d'adaptation des méthodes de segmentation d'image en carte auto-organisatrice. Pour l'illustrer, nous modifions un algorithme de segmentation par champs moyens, et obtenons un algorithme appelé TNEM. Nous utilisons ces méthodes pour aider à la navigation dans un corpus textuel. En effet, nous aboutissons à des critères et des moyens de représentation objectifs.
APA, Harvard, Vancouver, ISO, and other styles
33

Mourah, Moustafa. "Modélisation des équilibres de phases liquide-liquide et liquide-vapeur des mélanges contenant de l'eau, des alcools et des hydrocarbures." Paris 13, 2009. http://www.theses.fr/2009PA132023.

Full text
Abstract:
Le sujet de cette thèse concerne la modélisation thermodynamique ‘prédictive’ des équilibres de phases liquide-liquide et liquide-vapeur de systèmes contenant du méthanol, de l'éthanol et/ou de l'eau (molécules polaires et associatives). Le modèle utilisé se base sur une version de l’équation d’état théorique SAFT, combinée à une méthode de contribution de groupe. Cette méthode a été étendue aux composés polaires par Nguyen-Huynh (GC-PPC-SAFT). Dans le cadre de nos travaux, nous avons appliqué une méthode de contribution de groupes développée par Tamouza, avec une méthode prédictive pour évaluer les paramètres d'interaction binaire (basée sur la théorie de London). Après avoir déterminé les paramètres spécifiques de ces composés, ceux-ci ont été étudiés en mélange, en mettant l'accent sur les équilibres liquide-liquide observés en présence d’hydrocarbures. Les paramètres d'interaction binaires ont un effet très important sur ces équilibres, mais peuvent être calculés de manière prédictive. Cette approche ne dégrade que très légèrement la qualité des équilibres liquidevapeur. La description des mélanges de composés polaires et associatifs nécessite une étude du phénomène d'association croisée (eau + alcool). Finalement, nous avons testé la qualité de notre modèle GC-PPC-SAFT sur des systèmes ternaires et les résultats obtenus sont prometteurs dans le but de développer un modèle qui soit le plus prédictif possible. Mots clés: Equilibres de phases liquide-liquide, équation d’état, GC-PPC-SAFT, méthanol, éthanol, eau, simulation moléculaire, associations croisées
This dissertation studies a ‘predictive’ thermodynamic modeling of liquid-liquid and/or liquid-vapor phase equilibria of mixtures containing methanol, ethanol and/or water (polar and associative compounds). The model used is based on a SAFT equation of state combined with a group contribution method. Nguyen-Huynh (GC-PPC-SAFT) has extended this method to polar compounds. In this study, we have applied a group contribution method proposed by Tamouza, with a predictive method to estimate the binary interaction parameter (based on the London theory). Specific parameters of these compounds have been determinated using fundamentally the liquid-liquid phase equilibria data with hydrocarbons. The binary interaction parameters have very important effect on the representation of this phase equilibria. Nevertheless, it is possible to calculate this parameter with a predictive method. This approach weakly degrades the quality of the liquid-vapor phase equilibria. The description of the mixtures containing polar and associative compounds requires to study the cross-associating effect. Finally, we tested the performance of the model GC-PPC-SAFT on ternary systems. The results can be considered promising towards a fully predictive model development
APA, Harvard, Vancouver, ISO, and other styles
34

Gilormini, Pascal. "Contribution à la modélisation de la permittivité diélectrique de matériaux composites absorbants aux ondes hyperfréquences : lois de mélange, lois de changement d'échelle et équations du milieu effectif généralisé." Vandoeuvre-les-Nancy, INPL, 1995. http://docnum.univ-lorraine.fr/public/INPL_T_1995_GILORMINI_P.pdf.

Full text
Abstract:
Cette étude est consacrée à la modélisation, par les lois de mélange, de la permittivité diélectrique de matériaux composites absorbants aux ondes hyperfréquences. Ces matériaux sont constitués d'inclusions conductrices (noir de carbone ou polymères conducteurs) dispersées dans une matrice polymère isolante. Leurs propriétés électromagnétiques dépendent fortement de la fraction volumique et de la répartition géométrique des charges au sein des matériaux, et notamment du phénomène de percolation. Les modèles basés sur la représentation géométrique asymétrique, présentés au premier chapitre, ne peuvent pas rendre compte d'un seuil de percolation différent de 0 ou de 1. Les modèles de milieu effectif, décrits au deuxième chapitre, constituent un important progrès dans la modélisation des données expérimentales, grâce à la représentation géométrique symétrique. Ils sont cependant mal adaptés au voisinage du seuil de percolation, car la percolation présente une forte analogie avec une transition de phase du second ordre. Le troisième chapitre développe cette analogie, et montre que les propriétés des composites au voisinage du seuil de percolation doivent être décrites par les lois de changement d'échelle. Les techniques pour abaisser le seuil de percolation sont présentées dans le quatrième chapitre. Enfin, le cinquième chapitre est consacré aux modèles récents de milieu effectif généralisé (GEM). Ces modèles combinent les lois de milieu effectif et les lois de changement d'échelle, et fournissent la meilleure modélisation des données expérimentales envisagées dans ce mémoire
APA, Harvard, Vancouver, ISO, and other styles
35

Priam, Rodolphe. "Méthodes de carte auto-organisatrice par mélange de lois contraintes. Ap^plication à l'exploration dans les tableaux de contingence textuels." Rennes 1, 2003. http://www.theses.fr/2003REN10166.

Full text
Abstract:
Cette thèse s'intéresse à l'analyse exploratoire des données multidimensionnelles souvent qualitatives voir textuelles par des modèles particuliers de carte auto-organisatrice de Kohonen. Il s'agit d'effectuer une classification et une projection simultanées des lignes ou colonnes d'une matrice de données. Le résultat de ces méthodes est une réduction sous la forme d'une surface de régression discréte. Nous étudions plus particulièrement les modèles de mélange de lois de probabilités : les paramètres correspondant aux espérances des vecteurs classés sont contraints en les plaçant aux noeuds d'une grille rectangulaire. Après une présentation de ces méthodes, et des algorithmes d'estimation basés sur l'EM (Expectation-Maximization), nous introduisons essentiellement deux nouvelles approches. La première vise à ''généraliser la méthode d'Analyse Factorielle des Correspondances'' aux grandes matrices : l'algorithme CASOM est une classifieur Nai͏̈f de Bayes contraint en un TPEM (Topology Preserving EM) pour tableau de contingence. La seconde consiste en un schéma général d'adaptation des méthodes de segmentation d'image en carte auto-organisatrice. Pour l'illustrer, nous modifions un algorithme de segmentation par champs moyens, et obtenons un algorithme appellé TNEM. Nous utilisons ces méthodes pour aider à la navigation dans un corpus textuel. En effet, nous aboutissons à des critères et des moyens de représentation objectifs.
APA, Harvard, Vancouver, ISO, and other styles
36

Vrac, Mathieu. "Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques." Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00002386.

Full text
Abstract:
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
APA, Harvard, Vancouver, ISO, and other styles
37

Rida, Marwan. "Simulation numérique des phénomènes de transport lors de la nitruration gazeuse avec des mélanges NH₃-h₂ et NH₃-H₂-N₂." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL155N.

Full text
Abstract:
L'amélioration du comportement des pièces, par nitruration gazeuse à partir d'ammoniac, dépend étroitement des différentes configurations allotropiques que l'on peut former dans le système Fe-N. L'absence d'un contrôle rigoureux des paramètres de traitement dans le réacteur donne un aspect empirique au procèdé. Après que les différentes vitesses de réaction (paroi, gaz, échantillon) aient été présentées, trois modèles en régime permanent ont été réalises: un unidimensionnel, deux bidimensionnels (avec et sans échantillon). La comparaison entre expérience et modèles des taux de dissociation de l'ammoniac en fonction de la température, de la composition du gaz et du débit d'entrée, a montré que les modèles bidimensionnels sont les plus représentatifs. Les cartographies des constituants, des températures, et des vitesses ont été également présentées. Nous avons ensuite modélisé simultanément en régime transitoire la phase gazeuse et le transport d'azote dans la matrice, ce qui n'a jamais été réalisé précédemment. En phase gazeuse, la simulation fournit les concentrations, la température et la vitesse instantanées du mélange en tout point. En mélange NH₃-H₂, nous avons bénéficié de la connaissance de la vitesse de réaction de l'ammoniac, à la surface du fer (α) et dispose de nombreux résultats dans la littérature, pour confronter notre modèle a différents travaux. En mélange NH₃-H₂-N₂, bien que la vitesse de réaction de l'ammoniac sur ne soit pas connue, la modélisation de la croissance de γ' sur α a toutefois pu être réalisée, et ce dans les conditions ou le flux d'azote théorique à concentration superficielle constante est utilisé comme condition aux limites à la surface de l'échantillon. De très bonnes corrélations avec l'expérience ont été obtenues, notamment pour la croissance de la couche de γ' sur α. Ainsi, un modèle original a été proposé qui s'appuie sur la résolution directe du transfert d'azote dans les couches α et γ' et a l'interface γ'/α, ce qui n'a jamais été réalise auparavant dans ces types de problèmes. Á partir de la résolution simultanée des équations de transfert dans la phase gazeuse et dans l'échantillon, en s'appuyant uniquement sur les données d'entrée du réacteur, nos modèles permettent un contrôle rigoureux du procédé quelque soit la nature du réacteur
APA, Harvard, Vancouver, ISO, and other styles
38

Nigay, Pierre-Marie. "Etude des transformations microstructurales de mélanges argile/biomasse lors de la cuisson et relations avec les propriétés mécaniques et thermiques." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2015. http://www.theses.fr/2015EMAC0001/document.

Full text
Abstract:
La valorisation de résidus agricoles, industriels ou urbains se révèle, à mesure des recherches et des avancées, un recours pertinent aux défis s’imposant à l’industrie de la terre cuite et au domaine de l’habitat. L’incorporation de résidus agricoles à travers des produits conventionnels a permis au long de cette étude une économie de ressource argileuse et d’énergie, tout en améliorant les performances mécaniques et thermiques à la base des matériaux de construction. Des matières végétales ajoutées au mélange argileux de fabrication entrainent une formation de porosité, durant la cuisson des produits, selon la libération d’espaces occupés par les particules, à des températures allant de 200 à 400°C. Les pores en formation adoptent alors les formes et les tailles de particules constitutives, en procurant une maitrise de la microstructure et des propriétés usuelles de la terre cuite. Les résidus agricoles à fines particules se décomposent au sein de la matrice argileuse et procurent, en réduisant la taille moyenne des pores, une amélioration des performances mécaniques de près de 40%. Les matières végétales à particules fibreuses suscitent en revanche une augmentation de l’anisotropie originelle de la microstructure et une amélioration notable de 40% des performances thermiques. La combustion de la matière organique assure, en prime, un apport énergétique au procédé de cuisson s’élevant à 35% des besoins en combustible et compensant un coût d’achat éventuel. L’incorporation de matières végétales au sein des produits de terre cuite apparait comme un succès sur le plan économique, environnemental et technique en raison d’une valorisation matière, entrainant une amélioration des performances usuelles, et d’une valorisation énergétique, accordant une réduction des consommations en gaz et des émissions en dioxyde de carbone
Waste and biomass valorization appears, on a way of research and advances, as a relevant answer in the challenge offered to the clay bricks industry and housing field. Incorporations of agricultural wastes into clayey ceramic bodies accorded, along those investigations, raw material and energy savings, since improving the mechanical and thermal properties on the basis of every building material. Biomass incorporations amongst argillaceous mixtures induce a porosity formation through the firing process under a release, on a range of temperatures going from 200 to 400°C, of the material spaces previously filled by the organic particles. The porous cavities assume the sizes as well as shapes of the biomass particles and provide a microstructure control affording a functional properties command. The agricultural wastes including thin particles fade out into the clayey bodies and provide, through a median pore size reduction, an improvement of the mechanical strength up to 40%. Crops residues showing fibrous particles induce on the other hand an increase of microstructure and porous network anisotropy, leading to a tremendous improvement of nearly 40% in the insulation behavior. The biomass combustion provides a calorific contribution as well, to the industrial process of firing, surrounding 35% of the usual fuel requirements and supplies an eventual cost of agricultural wastes. Biomass incorporation into clayey ceramic appears as a success on economical, environmental and technical terms, according to the material purpose offering an improvement of the functional performances, and energy purpose assuming a diminution of gas consumptions or a reduction of carbon dioxide release
APA, Harvard, Vancouver, ISO, and other styles
39

Chaer, Touria. "Étude de la réactivité des mélanges gazeux NH₃-N₂-H₂ lors de la nitruration d'un acier dans le réacteur de thermobalance." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL082N.

Full text
Abstract:
Lors du traitement de nitruration en phase gazeuse par NH₃-N₂-H₂, à 570°C et à la pression atmosphérique, deux réactions hétérogènes gaz-solide et gaz-parois du four, sont mises en jeu. La décomposition de NH₃ sur les parois en alumine du réacteur de la thermobalance, dont le comportement est du type piston, montre que la réaction est hors d'équilibre à 570°C. L’influence catalytique des parois est faible, néanmoins le taux de dissociation est fonction du débit total et de la composition du mélange. Les résultats de la modélisation du réacteur montrent l'homogénéité du mélange gazeux dans la zone du traitement. Pour caractériser la réaction gaz-solide, nous étudions les lois qui régissent la phase gazeuse pendant le contrôle de la croissance des couches de nitrures de fer [alpha], [gamma] et [epsilon], à partir d'une régulation dynamique des débits du gaz à l'entrée du réacteur. À débit total constant, pour superposer la prise de masse expérimentale à celle prévue par le modèle théorique de croissance des couches ([epsilon]/ [gamma]/ [alpha], [gamma]/[alpha] ou [alpha]), il faut débuter les traitements par une pression partielle en NH₃ très élevée par rapport à celle de l'équilibre d'une part, et d'autre part, il est indispensable de diminuer cette pression dans le mélange au cours du traitement. Toutefois, il est possible d'obtenir pour le même flux d'azote transféré à la surface, différents couples de paramètres (débit total et pression partielle en NH₃). Un débit total élevé nécessite une plus faible pression partielle en NH₃, néanmoins le débit d'ammoniac est important. Un modèle basé sur le bilan en NH₃ à la surface de solide, établit la relation de proportionnalité entre le flux d'azote transféré à la surface et la pression en NH₃ à l'entrée du four. Ainsi, nous montrons que plus le mélange est riche en NH₃, plus le transfert d'azote est important. Cependant, le flux d'azote consommé par l'échantillon est faible par rapport au débit de NH₃ à l'entrée
APA, Harvard, Vancouver, ISO, and other styles
40

Abraini, Jacques Henri. "Réactions anxieuses et perturbations comportementales lors de confinements de longue durée en chambre hyperbare sous hautes pressions de mélanges respiratoires hydrogènes." Nice, 1995. http://www.theses.fr/1995NICE2014.

Full text
Abstract:
Le développement de la plongée profonde d'assistance à l'industrie pétrolière offshore a considérablement modifié les conditions de travail des scaphandriers. Dans ce type de plongée, les scaphandriers vivent dans des conditions de longue durée sous des pressions élevées correspondant à la profondeur du chantier sous-marin (tous les 10 mètres de profondeur la pression augmente d'une valeur égale à la pression atmosphérique). Au cours de cette étude, nous avons cherché à connaître, en termes de réactions anxieuses, les conséquences de telles conditions de vie et de travail. Pour cela, nous avons utilisé l'échelle d'anxiété de Cattell (ou anxiety scale questionnaire, ASQ). Nos résultats ne montrent l'existence de réactions anxieuses que chez certains sujets, présentant soit une difficulté à gérer et à exprimer de façon appropriée les tensions, soit une prédisposition constitutionnelle à l'anxiété. Par ailleurs, le développement des réponses anxieuses apparaît également en relation avec d'autres facteurs, environnementaux, physiques, ou sociaux. Ainsi, suivant les sujets, on note une relation entre la réaction anxieuse et (1) le niveau de profondeur ; (2) la durée de confinement ; (3) le contexte opérationnel (pression du ca) ; ou (4) des difficultés relationnelles
Life conditions during deep diving include long term confinement at pressure environment (pressure increases of 1 bar; i. E the value of atmospheric pressure, every 10 meters depth). During the present study, we used the Cattell anxiety scale questionnaire to determine whether such conditions of occupational diving could induce anxious reactions related to confinement or pressure. Our results show that only few subjects, with psychological characteritics such as an anxious guilt or an incapacity to cope with frustration, developed anxious reactions else where, anxious reactions appear in relations ship with other factors such as time of confinement, pressure, psychosocial events or diving operations
APA, Harvard, Vancouver, ISO, and other styles
41

Gonçalves, Maria Augusta. "Mise au point d'un logiciel général pour les lois de mélange des matériaux composites en vue de l'étude de leurs propriétés électromagnétiques." Vandoeuvre-les-Nancy, INPL, 1995. http://docnum.univ-lorraine.fr/public/INPL_T_1995_GONCALVES_M_A.pdf.

Full text
Abstract:
Ce travail présente une méthodologie pour étudier les lois de mélange des matériaux composites, en vue de la détermination de leurs propriétés électromagnétiques. La première partie présente un recueil des modèles existants pour décrire les propriétés diélectriques des mélanges, ainsi que les théories qui décrivent le phénomène de la percolation et les études à propos de la variation de la permittivité en fonction de la fréquence. Tous les modèles qui décrivent ces études ont été introduits dans un logiciel, qui accomplit des analyses selon les types des données disponibles: il peut effectuer une analyse comparative des lois de mélange appliquées à un système donné, ou bien calculer la permittivité diélectrique d'une des phases si elle n'est pas connue, ou encore calculer les paramètres critiques de la percolation et aussi étudier la variation de la permittivité en fonction de la fréquence. Ce logiciel présente une interface graphique conviviale, et un guide qui permet à l'utilisateur d'avoir accès aux renseignements théoriques à partir desquels les conclusions ont été dégagées. Ayant comme base ce logiciel, les lois de mélange ont été appliquées à plusieurs systèmes, tels que des émulsions eau-huile et des systèmes poudre-air. Les résultats obtenus ont permis de vérifier les modèles les plus adaptés à chaque type de système, ainsi que de vérifier leurs comportements en fonction de la fréquence et d'effectuer des études des paramètres qui donnent des éléments pour la prévision du seuil de la percolation
APA, Harvard, Vancouver, ISO, and other styles
42

Rondin, Jérôme. "Apport des écoulements élongationnels lors de la mise en oeuvre de mélanges PP/EPDM réticulés dynamiquement et chargés à base de graphène." Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAE046/document.

Full text
Abstract:
Le travail de thèse présenté dans ce manuscrit a consisté à mettre en avant un nouveau procédé de mélange des polymères développé au LIPHT lors de la mise en oeuvre de mélanges PP/EPDM réticulés dynamiquement et chargés à base de graphène. Ce nouveau mélangeur, appelé RMX®, se distingue de la plupart des mélangeurs existants par la présence d’écoulements élongationnels forts, la possibilité de mouler directement des éprouvettes à l’issue de l’étape de mélange ainsi qu’une étanchéité aux gaz et aux liquides. Après une optimisation des conditions opératoires de ce mélangeur, nous avons pu évaluer quantitativement l’efficacité du mélange dispersif par analyse numérique de tailles de particules d’EPDM dispersées dans une matrice PP. Le RMX® permet d’obtenir une dispersion fine (~ 1 μm) pour des énergies spécifiques et des temps de mélange inférieurs aux procédés existants. Des tailles significativement réduites ont été obtenues pour des mélanges présentant un rapport de viscosité élevé (p > 1). Ces résultats ont été attribués à la combinaison de taux de déformation en cisaillement élevés dans le canal de l’élément de mélange avec des taux de déformation en élongation majoritaires en entrée/sortie de ce dernier. L’impact des écoulements élongationnels sur l’intervalle de (co)-continuité de mélanges PP/EPDM a ensuite été étudié. Un décalage de la percolation de la phase dispersée (EPDM) vers les hautes concentrations ainsi qu’une borne supérieure de cet intervalle plus élevée ont ainsi pu être mis en évidence à l’aide de techniques complémentaires (MEB, extraction sélective de la phase EPDM, analyse rhéologique). Une procédure originale d’élaboration de matériaux TPV dans le RMX® a également été réalisée. La réticulation dynamique au moyen d’une résine phénolique d’un mélange PP/EPDM présentant une morphologie co-continue a été effectuée. Des taux d’insoluble proche de 100% ainsi que les propriétés élastiques des TPV formés ont permis de confirmer l’efficacité de cette étape de réticulation dans le RMX®. Une dernière étude a consisté à disperser une nanocharge graphitique lamellaire et conductrice (xGNPTM) dans une matrice PP. L’analyse par diffraction des rayons X, les seuils de percolation rhéologique et électrique obtenus autour de 7 et 8 wt% respectivement ainsi qu’un facteur de forme Af ~ 15 suggèrent une absence d’exfoliation ainsi qu’une agrégation importante des particules de xGNP
A new mixing device (RMX®) based on elongational flows has been developed during this work. This device has specific technical features comparing to conventional mixers such as: variable mixing volume, direct molding of samples, air and water tightness. After an optimization of processing conditions, dispersive mixing efficiency was assessed on PP/EPDM blends by numerical analysis. Very fine dispersed morphologies were obtained for lower specific mixing energy and mixing times comparing to internal mixer (Haake Rheomix 600). Significantly reduced droplet sizes have been obtained for high-viscosity ratio blends (p > 1). These results indicate an enhanced droplet break-up mechanism in the RMX® which was attributed to the combination of high shear rates inside the mixing element and important elongational flows in the convergent/divergent zones. Impact of elongational flow mixing on the (co)-continuity interval of PP/EPDM blends was investigated. An important shift (~ 10 wt%) of the EPDM percolation threshold as well as a higher phase inversion concentration was observed. A combination of complementary techniques (SEM, selective extraction and rheological analysis) was successfully carried on in order to assess this (co)-continuity interval. Then, PP/EPDM blends with a co-continuous morphology were dynamically crosslinked in the RMX® using resole as a crosslinking agent. An original and specific procedure was developed for this purpose. Gel fraction close to 1 and significantly enhanced elastic properties after crosslinking confirmed the efficiency of this procedure. Finally, the dispersion of lamellar and conductive nanofillers (xGNPTM) in a polypropylene matrix was studied. Microstructural characterization by XRD and optical microscopy, rheological and electrical percolation thresholds (7 and 8 wt% of xGNP respectively) and corresponding aspect ratios (Af ~ 15) have shown no evidence of exfoliation
APA, Harvard, Vancouver, ISO, and other styles
43

Castro, Mickaël. "Contrôle de la morphologie d'un mélange de polymères lors de l'extrusion de films : application aux batteries lithium-polymère." Saint-Etienne, 2004. http://www.theses.fr/2004STET4019.

Full text
Abstract:
L'objet de ce travail est d'étudier et de mettre au point par extrusion deux films polymères entrant dans la fabrication d'une batterie lithium-polymère. Ces films sont basés sur un mélange de deux polymères incompatibles. Les propriétés opposées de ces polymères sont mises à profit conjointement lorsque le mélange adopte une morphologie co-continue. En préambule de l'étude de faisabilité des films par extrusion, ce travail propose l'étude du mélange binaire des polymères d'un point de vue morphologique et rhéologique. L'extraction sélective et la microscopie sont utilisées et les observations effectuées sont mises en parallèle avec les données rhéologiques du système. Le rapprochement entre la morphologie et la rhéologie du système a donné lieu à l'élaboration d'un modèle prédictif de l'évolution du module élastique G' aux basses fréquences. Le comportement particulier de ce mélange a également été comparé à celui des systèmes chimiques (gels). La seconde partie de ce travail décrit l'étude de faisabilité des films par extrusion. Des mesures de conductivité, résistivité et de tenue mécanique ont permis d'aboutir à une formulation adaptée au process. Le procédé de transformation développé au laboratoire a été transféré à l'échelle industrielle. Ce transfert s'est concrétisé par la fabrication des films d'électrolyte et de cathode entrant dans la confection d'une batterie lithium-polymère. L'extraction sélective, la microcopie, la calorimétrie différentielle, la spectrométrie mécanique et la thermogravimétrie ont été utilisées pour caractériser ces systèmes complexes. Suite à ce travail, les composants ont été testés avec succès dans une batterie lithium-polymère
This work deals with the design engineering and the characterization of two polymer films made by extrusion. These films are the components of a lithium-polymer battery. They are based on a blend of two immiscible polymers. To take advantage of the opposite properties of the two components, the morphology of the blend must be cocontinuous. Before studying the process ability of such polymer films, morphological and rheological properties are investigated. The observations made by selective extraction and microscopy are compared with the rheological behaviour. Since no model has achieved a good prediction of the behaviour of the storage modulus, a new model has been developed to predict the evolution of G' at low frequencies. In a wider range of frequencies, this particular behaviour of the continuous structure has been assimilated with the chemical gelation of crosslinked networks. The second part of this work described the study of the process. Conductivity, resistivity measurements and mechanical characterization have been used to determine the composition of films. The process has been developed in the laboratory and transferred to the industrial site. It allows us to produce large amount of electrolyte and cathode films to build a lithium-polymer battery. Selective extraction, microscopy, differential calorimetry, mechanical spectrometry and thermogravimetry have been used to characterize these complex systems. Finally, batteries have been made to test successfully the different components, electrolyte and cathode
APA, Harvard, Vancouver, ISO, and other styles
44

Camy, Séverine. "Procédé de synthèse de carbonate de diméthyle utilisant le dioxyde de carbone supercritique : étude et modélisation du fractionnement du mélange réactionnel." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT013G.

Full text
Abstract:
Ce travail presente l'etude du fractionnement du melange co 2/methanol/dmc/eau par un procede semi-continu utilisant le co 2 supercritique. Il s'inscrit dans le cadre plus large de la conception d'un procede de synthese de carbonate de dimethyle (dmc) par carbonatation du methanol par le co 2 supercritique. En raison des conditions operatoires et de la nature des composes mis en jeu, la modelisation du comportement thermodynamique du melange a ete realisee en utilisant l'equation d'etat de soave, redlich et kwong associee aux regles de melange mhv-2. L'absence de donnees dans la litterature sur les equilibres de phases des melanges binaires impliquant le dmc a necessite leur obtention experimentale. Le fractionnement du melange quaternaire a ete etudie experimentalement sur un pilote de type extracteur-separateurs classiquement utilise pour les operations d'extraction supercritique (pilote separex, contacteur de 200 cm 3 et 3 separateurs cycloniques en serie). Un modele de representation du fonctionnement de ce pilote en regime dynamique a ete developpe, et confronte a la realite experimentale. Une methode simplifiee de resolution des bilans dynamiques a ete proposee et validee par rapport a une resolution rigoureuse des equations. La description du procede, reposant sur le concept d'etage theorique d'equilibre, s'est averee pertinente dans le cas du contacteur, alors que les resultats sont moins satisfaisants pour les separateurs. Une modelisation plus adaptee a la technologie de ces derniers a ete proposee. Malgre cette amelioration, un ecart non negligeable persiste entre predictions et observations experimentales. Les conclusions de ce travail, issues de l'experimentation et de la modelisation, amenent a penser que ce
APA, Harvard, Vancouver, ISO, and other styles
45

Biessy, Guillaume. "Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE048/document.

Full text
Abstract:
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants
A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population
APA, Harvard, Vancouver, ISO, and other styles
46

Vernet, Elodie Edith. "Modèles de mélange et de Markov caché non-paramétriques : propriétés asymptotiques de la loi a posteriori et efficacité." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS418/document.

Full text
Abstract:
Les modèles latents sont très utilisés en pratique, comme en génomique, économétrie, reconnaissance de parole... Comme la modélisation paramétrique des densités d’émission, c’est-à-dire les lois d’une observation sachant l’état latent, peut conduire à de mauvais résultats en pratique, un récent intérêt pour les modèles latents non paramétriques est apparu dans les applications. Or ces modèles ont peu été étudiés en théorie. Dans cette thèse je me suis intéressée aux propriétés asymptotiques des estimateurs (dans le cas fréquentiste) et de la loi a posteriori (dans le cadre Bayésien) dans deux modèles latents particuliers : les modèles de Markov caché et les modèles de mélange. J’ai tout d’abord étudié la concentration de la loi a posteriori dans les modèles non paramétriques de Markov caché. Plus précisément, j’ai étudié la consistance puis la vitesse de concentration de la loi a posteriori. Enfin je me suis intéressée à l’estimation efficace du paramètre de mélange dans les modèles semi paramétriques de mélange
Latent models have been widely used in diverse fields such as speech recognition, genomics, econometrics. Because parametric modeling of emission distributions, that is the distributions of an observation given the latent state, may lead to poor results in practice, in particular for clustering purposes, recent interest in using non parametric latent models appeared in applications. Yet little thoughts have been given to theory in this framework. During my PhD I have been interested in the asymptotic behaviour of estimators (in the frequentist case) and the posterior distribution (in the Bayesian case) in two particuliar non parametric latent models: hidden Markov models and mixture models. I have first studied the concentration of the posterior distribution in non parametric hidden Markov models. More precisely, I have considered posterior consistency and posterior concentration rates. Finally, I have been interested in efficient estimation of the mixture parameter in semi parametric mixture models
APA, Harvard, Vancouver, ISO, and other styles
47

Sani, Rababe. "Étude des transformations microstructurales de mélanges argile/Combustibles Solides de Récupération (CSR) lors de la cuisson : relations entre propriétés physico-chimiques, mécaniques et thermiques." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2018. http://www.theses.fr/2018EMAC0005/document.

Full text
Abstract:
La valorisation des co-produits riches en matières organiques et inorganiques comme additifs dans des formulations à base d’argile peut améliorer à la fois les performances mécaniques et thermiques des produits de terre cuite, de même que le bilan énergétique des procédés de fabrication de ces matériaux. Cette étude a porté sur l’incorporation de combustibles solides de récupération (CSR) dans un mélange de fabrication des produits de terre cuite pour le génie civil en étroite collaboration avec l’entreprise TERREAL dans le cadre du projet LabCom RESPECTc financé par l’ANR.Premièrement, deux CSR ont été sélectionnés et utilisés comme additifs pour améliorer les produits issus des deux gisements de mélange argileux nommés ML et MC de chez TERREAL. L’influence de la nature, du taux d’incorporation des CSR, de la granulométrie des CSR et de la nature de la matrice argileuse sur les propriétés physico-chimiques, mécaniques et thermiques des mélanges argileux/CSR a été étudiée entre 30°C et 1100°C. Dans tous les cas, l’ajout de CSR a permis d’améliorer le caractère isolant des produits de terre cuite, en diminuant leur conductivité thermique. L’ajout de CSR a aussi permis d’améliorer les propriétés mécaniques des produits, en fonction du type et du taux de CSR ajouté, du taux et de la nature (forme, taille et distribution) de la porosité créée. L’étude a démontré que les interactions entre les minéraux argileux et les éléments inorganiques des CSR avaient un impact important sur les propriétés mécaniques et thermiques. Les résultats ont montré que l’ajout de 4% en masse du CSR15-1 contenant un taux de cendres de 65,7% en masse a conduit à une augmentation de la résistance mécanique du matériau à base de la matrice argileuse ML de l’ordre de 32%. Ensuite, un modèle cinétique du frittage basé sur les variations dimensionnelles des matériaux entre 650°C et 1000°C a été développé à partir de l’analyse thermomécanique (ATM) des mélanges (avec ou sans CSR). L’objectif a été de mieux comprendre les mécanismes du frittage mis en jeu. Le modèle développé a montré une bonne adéquation avec les données expérimentales. Les résultats ont montré que l’étape du frittage thermique de ces mélanges se fait en présence d’une phase liquide et que l’ajout de CSR a permis d’accélérer la densification des matériaux. Cela a conduit à une diminution de la température usuelle de cuisson des produits de terre cuite permettant ainsi un gain énergétique non négligeable. Finalement, une étude environnementale a été réalisée lors de la cuisson des mélanges argileux/CSR. Cette étude a particulièrement été focalisée sur la contribution de CSR au bilan énergétique et à l’impact des émissions des gaz critiques tels que le CO2, le CO et l’HCl. Les résultats ont montré que les émissions de CO2 et de CO lors de la cuisson des mélanges argileux/CSR ont augmenté en raison de la décomposition thermique de la matière organique des CSR et que moins de 50% en masse du chlore a été transformé en HCl (18-31 ppm). Le bilan énergétique effectué a montré que l’ajout de CSR au sein des matrices argileuses ML ou MC compense une part non négligeable du gaz naturel usuellement utilisé comme combustible au cours de la cuisson de ces matériaux. Cela s’est traduit par une économie d’énergie thermique et une réduction des émissions de CO2 provenant de la décarbonatation de la matrice argileuse
The valorization of co-products rich in organic and inorganic materials as additives in formulations based on clay matrix can improve both the mechanical and thermal performances of ceramic materials as well as the energy balance of the manufacturing processes of these products. This study focused on the incorporation of Solid Recovered Fuels (SRF) into the clay ceramics for civil engineering in close collaboration with TERREAL as part of the ANR funded LabCom RESPECTc project. Firstly, two SRF were selected and used as additives to improve the properties of ceramic materials from to clay mixture deposits named ML and MC from TERREAL. The influence of the nature, the amount of SRF, the grain size of SRF and the nature of clay matrix on the physico-chemical, mechanical and thermal properties of the clay/SRF mixtures were studied between 30°C and 1100°C. In all cases, the addition of SRF into the clay mixture (ML or MC) has enhanced the insulating nature of the ceramic materials by reducing their thermal conductivity. The addition of SRF has also improved the mechanical properties of the ceramic materials, depending on the nature and the amount of SRF added, the rate and the nature (shape, size and distribution) of the porosity created. The study demonstrated that interactions between clay minerals and inorganic elements of SRF have a significant effect on mechanical and thermal properties. The results showed that the addition of 4 wt.% of SRF15-1 containing an ash content of 65.7 wt.% into clay matrix ML led to increase the mechanical strength of the material based on the clay matrix ML of the order of 32%. Then, a kinetic model of thermal sintering based on the dimensional variations of ceramic materials between 650°C and 1000°C was developed from thermomechanical analysis (TMA) of the clay mixtures (with or without SRF). The main objective is to better understand the mechanism of the thermal sintering involved. The model developed showed a good adequacy with the experimental data. The results showed that the thermal sintering step of these mixtures is carried out by the presence of a liquid phase and that the addition of SRF has accelerated the densification of ceramic materials. This has led to decrease the usual firing temperature of ceramic materials, allowing a significant energy savings. Finally, an environmental assessment was carried out during the firing of clay/SRF mixtures. This study was particularly focused on the contribution of SRF to the energy balance and impact of critical gas emissions such as CO2, CO and HCl. The results showed that CO2 and CO emissions during firing of clay/SRF mixtures increased due to the thermal decomposition of the organic matter of SRF and that less than 50 wt.% of chlorine was converted to HCl (18-31 ppm). The energy balance showed that the addition of SRF into the ML matrix compensates for a significant part of the natural gas usually used as fuel during firing of these ceramic materials. This was reflected by a thermal energy saving and reduction of CO2 emissions from the decarbonatation of the clay matrix
APA, Harvard, Vancouver, ISO, and other styles
48

Bertin, Thierry. "Elimination par voie catalytique des oxydes d'azote émis lors du fonctionnement des moteurs "Diesel" et des moteurs "essence mélange pauvre"." Poitiers, 1998. http://www.theses.fr/1998POIT2260.

Full text
Abstract:
Ce travail est consacre a l'etude de l'elimination par voie catalytique des oxydes d'azote emis lors du fonctionnement des moteurs diesel et essence melange pauvre. Differents catalyseurs ont ete etudies. Il s'agit d'oxydes simples (al#2o#3, sno#2, fe#2o#3) seuls ou en melange, d'oxydes mixtes (perovskites) et de metaux supportes (pt / support). Seuls certains oxydes (nd#2cuo#4, sno#2-al#2o#3) ont une activite significative en reduction (presence de propene dans le melange reactionnel) et en decomposition (absence de reducteur) des no#x. Pour ces catalyseurs, le domaine d'activite se situe entre 300 et 500c avec un maximum de conversion a 350-400c. L'augmentation d'activite due a l'ajout de platine se traduit d'une part par un deplacement des courbes de conversion vers les basses temperatures et d'autre part par la formation d'une espece nouvelle n#2o. L'etude a donc consiste a modifier les methodes de preparation des catalyseurs et les conditions operatoires de la reaction afin de minimiser la formation de protoxyde d'azote. Dans ce but, une methode de depot du platine en interaction avec le fer a ete mise au point. Elle a permis d'obtenir des catalyseurs plus actifs et plus selectifs en n#2. Pour l'autre volet, la modulation de l'alimentation en reducteur dans le reacteur modifie la repartition des produits de la reaction, en particulier par une augmentation de la selectivite en n#2 sans variation de l'activite moyenne globale. Ceci a permis de mettre en evidence, a la surface des catalyseurs a base de fer (pas sur pt / al#2o#3), la formation et l'accumulation d'un intermediaire carbone et azote dont la reaction avec les oxydes d'azote conduit a la formation de n#2.
APA, Harvard, Vancouver, ISO, and other styles
49

Inkari, Pascal Guy Serge. "Elimination par réduction catalytique des oxydes d'azote émis lors du fonctionnement des moteurs "diesel" et des moteurs "essence mélange pauvre"." Poitiers, 1995. http://www.theses.fr/1995POIT2353.

Full text
Abstract:
La reduction des oxydes d'azote par le propene a ete etudiee en milieu reducteur (no+c#3h#6) et en milieu oxydant et humide (no+c#3h#6+o#2+h#2o). Les catalyseurs utilises sont, des oxydes simples a valence fixe (al#2o#3), des oxydes a valence variable (mno#2, sno#2), des oxydes mixtes (manganates et cuprates) de structure perovskite et des metaux supportes par des oxydes. En milieu reducteur, a des temperatures inferieures a 500c, la reduction de no par le propene n'est complete que sur les metaux supportes (rh>pd>ru>pt). En presence de platine, l'activite en conversion de no depend de la taille des particules et du nombre d'atomes accessibles. Cette activite est amelioree par ajout au support d'oxydes tels que bao, la#2o#3, ceo#2, zro#2. En milieu oxydant, une espece supplementaire apparait, le dioxyde d'azote, produite par oxydation de no par l'oxygene. Le reducteur (propene) reagit tres rapidement avec cet oxyde, en particulier sur les catalyseurs metalliques. Les manganates de lanthane faiblement substitues sur le site a par du strontium sont les plus actifs, tandis que la modification sur le site b n'entraine pas d'exaltation d'activite. Sur les materiaux ln#2cuo#4, les cuprates de lanthane sont plus actifs que les cuprates de neodyme. La dilution de ces perovskites par un solide a proprietes acido-basiques ameliore les performances catalytiques. Les metaux supportes par les oxydes a valence variable, sont en general les catalyseurs les plus actifs en conversion de no#x. En particulier un catalyseur bimetallique pt/10%sno#2-al#2o#3 dope a ete prepare et permet de reduire no#x sur un domaine de temperature beaucoup plus etendu que dans le cas des autres catalyseurs. Sa bonne stabilite est egalement notable. Cette activite est expliquee par des equilibres redox induits par la fonction metallique et le support.
APA, Harvard, Vancouver, ISO, and other styles
50

Siret, Carole. "Dialogue entre les molécules d'adhérence et le récepteur à l'IGF-I lors de la progression des mélanomes." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10143/document.

Full text
Abstract:
Le mélanome est un cancer en recrudescence depuis 10 ans. Il est devenu de ce fait une préoccupation majeure de santé publique. Au cours de la progression tumorale, l’expression des molécules d’adhérence (intégrines et cadhérines) ainsi que le récepteur à l’IGF de type I (IGF-IR) sont modulées. Notamment, il est observé un « switch des cadhérines » de la E vers la N, une surexpression des intégrines α2 et αv, et de l’IGF-IR. C’est dans cette optique que nous nous sommes intéressés aux dialogues croisés entre les molécules d’adhérence et l’IGF-IR. Dans un premier temps, nous avons mis en évidence un dialogue entre la N-cadhérine et l’intégrine αv lors de la migration des mélanomes. Dans un second temps, nous avons démontré que les dialogues entre l’IGF-IR, l’intégrine α2 et les cadhérines différent selon la nature de la cadhérine incriminée. Ces modifications de dialogues ont un impact important sur la propension migratoire des mélanomes
Cutaneous malignant melanoma is an aggressive melanocyte malignancy that is characterized by early metastasis, bad prognosis, and poor survival. Altered cell-cell adhesion (cadherins), cell-extracellular matrix (integrins) interaction, and IGF type I receptor (IGF-IR) are playing an important role in melanoma progression. In particular, we observed a "cadherins switch" from E to N, and α2- αv-integrins and IGF-IR over-expression. In this optics, we were interested in the crosstalk between adhesion molecules and IGF-IR. First, we brought to light a crosstalk between N-cadherin and αv-integrin during melanoma migration. Secondly, we demonstrated that the dialogues between the IGF-IR, α2-integrin and cadherins are different according to the nature of the cadherin involved. Such modulation in the crosstalk may have an important impact on the migratory inclination of melanomas
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography