Dissertations / Theses on the topic 'Agrégation de modèles'

To see the other types of publications on this topic, follow the link: Agrégation de modèles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Agrégation de modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Trifi, Amine. "Essais en agrégation, convergence et limites en temps continu des modèles GARCH." Paris 1, 2007. http://www.theses.fr/2007PA010057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse on investigue la limite en temps continu des modèles conditionnellement hétéroscédastiques GARCH. Dans une première partie on étudie l'agrégation des modèles GARCH et la genèse des GARCH faibles ainsi que l'agrégation temporelle de spécifications à volatilité stochastique (SR-SARV) contournant plusieurs limites des GARCH faibles. La seconde partie examine l'agrégation contemporaine ou individuelle des modèles GARCH et propose des méthodes d'estimation des représentations GARCH faibles. Dans la troisième partie, une analyse de la convergence faible et de la limite d'une séquence de semi-martingales est proposée. Quatre pertinentes applications en finance impliquant semi-martinagles et convergence faible illustrent l'analyse: AOA, évaluation d'options asiatiques, programmation dynamique, stratégies de minimisation locales du risque. La diffusion limite des GARCH faibles est ensuite confortablement abordée à la quatrième partie. Cette limite peut prendre plusieurs formes selon les conditions de convergence considérées. L'équivalence asymptotique des expériences statistiques des processus GARCH, à volatilité stochastique et de diffusion y est également éclairée.
2

Melquiond, Adrien. "Agrégation de peptides amyloïdes par des simulations numériques." Paris 7, 2007. http://www.theses.fr/2007PA077053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Chez l'homme, plus de vingt maladies (telles que la maladie d'Alzheimer ou le diabète de type II) sont associées à l'auto-assemblage pathologique de protéines solubles dans des oligomères cytotoxiques et des fibres amyloïdes. Ce processus est complexe, ce qui rend difficile la caractérisation structurale de ces intermédiaires et la détermination des chemins d'agrégation. Dans ce travail, nous examinons dans un premier temps la surface d'énergie libre et la dynamique d'assemblage pour des petits peptides amyloïdes (KFFE et le fragment 22-27 de l'amyline) en utilisant le champ de force gros-grains OPEP (Optimized Potential for Efficient peptide-structure Prédiction) associé à la technique d'activation-relaxation (ART) et à la dynamique moléculaire (MD). Ensuite, nous présentons des simulations de dynamique moléculaire d'échange (REMD) sur les dimères des peptides d'Alzheimer Abeta (1-40) et Abeta (1-42) et nous discutons le rôle de la région 23-28 dans la formation de la fibre. Enfin, nous suivons les premières étapes de la dissociation d'un oligomère Abeta (16-22) en présence d'inhibiteurs N-méthylés par des simulations de MD-OPEP
More than twenty human diseases, including Alzheimer's disease and dialysis-related amyloidosis, are associated with the pathological self-assembly of soluble proteins into transient cytotoxic oligomers and amyloid fibrils. Because this process is very complex, the detailed aggregation paths and structural characterization of the intermediate species remain to be determined. In this work, we first review our current understanding of the dynamics and free energy surface of the assembly of small amyloid-forming peptides (KFFE and the fragment 22-27 of amylin) using the OPEP coarse-grained protein force field (Optimized Potential for Efficient peptide-structure Prediction) coupled to the activation-relaxation technique (ART) and molecular dynamics (MD). Next, we present replica exchange MD simulations (REMD) on the dimers of Alzheimer's peptides Abeta (1-40) and Abeta (1-42) and discuss the rôle of amino acids 23-28 in fibril formation. Finally, we probe the first steps of Abeta (16-22) oligomer dissociation in the presence of N-methylated inhibitors by MD-OPEP simulations
3

Chebaro, Yassmine. "Agrégation des peptides et protéines amyloïdes par simulations numériques." Paris 7, 2010. http://www.theses.fr/2010PA077120.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'agrégation des peptides en fibres et oligomères amyloïdes est la cause principale des maladies neurodégénératives. Nous nous intéressons dans cette thèse aux maladies à prions et Alzheimer. Les deux protéines impliquées dans ces pathologies sont respectivement les peptides Abeta et la protéine prion. Le processus d'auto-assemblage de ces protéines en oligomères toxiques est difficilement caractérisable par les techniques expérimentales à l'heure actuelle et la formation de fibres amyloïdes est un phénomène très lent, in vitro et in vivo. L'utilisation des simulations in silico est alors être un outil important pour une meilleure compréhension de l'assemblage pathologique. Dans ce travail, nous utilisons un champ de force (OPEP) basé sur un modèle de représentation réduite des acides aminés, permettant l'accès à des temps de simulations longs afin d'identifier les modifications structurales associées à l'assemblage amyloïde. Dans un premier temps, la présentation du modèle et de la fonction énergétique associée sont décrits, suivies de leurs validations sur des systèmes tests. Ensuite nous présentons les résultats de OPEP dans l'identification des propriétés structurales et thermodynamiques du peptide amyloïde Abeta(16-35), l'étude du mécanisme d'inhibition et de dissociation de fibrilles préformées en présence de peptides N-méthylés, et l'étude de deux systèmes modèles pour l'agrégation amyloïde. La troisième partie porte sur l'étude du mutant T183A de la protéine prion, responsable de la maladie de Creutzfeld-Jacob, sous formes de monomère et dimère, ainsi que sur l'agrégation de l'hélice Hl de la protéine prion, sous formes monomériques, dimériques et tétramériques
The aggregation of amyloid peptides and proteins is the hallmark of neurodegenerative disease. In this thesis, we were interested in the Alzheimer disease and the prion related diseases. The two proteins implicated in those pathologies are the Abeta peptides and the prion protein respectively. The self-assembly of these soluble proteins into toxix oligomers is difficult to caracterize using the actual experimental techniques and the formation of amyloid fibrils is a very slow process in vitro and in vivo. The use of in silico simulation methods is therefore a useful tool to a better understanding of the pathological assembly. In this work, we used the coarse-grained force field (OPEP) based on a reduced representation of the amino-acids, allowing the acccess to longer simulation times in order to identify the structural modifications associated with the amyloid assembly. First, we review the coarse-grained model and the energy function associated to it, followed by its validation on numerous Systems. Then, we present the results of OPEP on the identification of the structural and thermodynamical properties of the amyloid peptide Abeta(16-35), the study of the inhibition mechanism on a preformed fibril in the presence of N-methylated inhibitors, and finally the study of de novo synthesized model peptides of the amyloid aggregation. The last part of the work concerns the study of the prion protein and the effect of the T183A mutation, causing Creutzfeld-Jacob disease, on its structure and stability, in the monomeric and dimeric forms of the protein, as well as the aggregation properties of the Hl helix of the prion protein in its monomeric, dimeric and tetrameric states
4

Bourel, Mathias. "Agrégation de modèles en apprentissage statistique pour l'estimation de la densité et la classification multiclasse." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4076/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes d'agrégation en apprentissage statistique combinent plusieurs prédicteurs intermédiaires construits à partir du même jeu de données dans le but d'obtenir un prédicteur plus stable avec une meilleure performance. Celles-ci ont été amplement étudiées et ont données lieu à plusieurs travaux, théoriques et empiriques dans plusieurs contextes, supervisés et non supervisés. Dans ce travail nous nous intéressons dans un premier temps à l'apport de ces méthodes au problème de l'estimation de la densité. Nous proposons plusieurs estimateurs simples obtenus comme combinaisons linéaires d'histogrammes. La principale différence entre ceux-ci est quant à la nature de l'aléatoire introduite à chaque étape de l'agrégation. Nous comparons ces techniques à d'autres approches similaires et aux estimateurs classiques sur un choix varié de modèles, et nous démontrons les propriétés asymptotiques pour un de ces algorithmes (Random Averaged Shifted Histogram). Une seconde partie est consacrée aux extensions du Boosting pour le cas multiclasse. Nous proposons un nouvel algorithme (Adaboost.BG) qui fournit un classifieur final en se basant sur un calcul d'erreur qui prend en compte la marge individuelle de chaque modèle introduit dans l'agrégation. Nous comparons cette méthode à d'autres algorithmes sur plusieurs jeu de données artificiels classiques
Ensemble methods in statistical learning combine several base learners built from the same data set in order to obtain a more stable predictor with better performance. Such methods have been extensively studied in the supervised context for regression and classification. In this work we consider the extension of these approaches to density estimation. We suggest several new algorithms in the same spirit as bagging and boosting. We show the efficiency of combined density estimators by extensive simulations. We give also the theoretical results for one of our algorithms (Random Averaged Shifted Histogram) by mean of asymptotical convergence under milmd conditions. A second part is devoted to the extensions of the Boosting algorithms for the multiclass case. We propose a new algorithm (Adaboost.BG) accounting for the margin of the base classifiers and show its efficiency by simulations and comparing it to the most used methods in this context on several datasets from the machine learning benchmark. Partial theoretical results are given for our algorithm, such as the exponential decrease of the learning set misclassification error to zero
5

Ghattas, Badih. "Agrégation d'arbres de décision binaires : Application à la prévision de l'ozone dans les Bouches du Rhône." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Moulahi, Bilel. "Définition et évaluation de modèles d'agrégation pour l'estimation de la pertinence multidimensionnelle en recherche d'information." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30254/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique générale de notre travail s'inscrit dans le domaine scientifique de la recherche d'information (RI). Les modèles de RI classiques sont généralement basés sur une définition de la notion de pertinence qui est liée essentiellement à l'adéquation thématique entre le sujet de la requête et le sujet du document. Le concept de pertinence a été revisité selon différents niveaux intégrant ainsi différents facteurs liés à l'utilisateur et à son environnement dans une situation de RI. Dans ce travail, nous abordons spécifiquement le problème lié à la modélisation de la pertinence multidimensionnelle à travers la définition de nouveaux modèles d'agrégation des critères et leur évaluation dans des tâches de recherche de RI. Pour répondre à cette problématique, les travaux de l'état de l'art se basent principalement sur des combinaisons linéaires simples. Cependant, ces méthodes se reposent sur l'hypothèse non réaliste d'additivité ou d'indépendance des dimensions, ce qui rend le modèle non approprié dans plusieurs situations de recherche réelles dans lesquelles les critères étant corrélés ou présentant des interactions entre eux. D'autres techniques issues du domaine de l'apprentissage automatique ont été aussi proposées, permettant ainsi d'apprendre un modèle par l'exemple et de le généraliser dans l'ordonnancement et l'agrégation des critères. Toutefois, ces méthodes ont tendance à offrir un aperçu limité sur la façon de considérer l'importance et l'interaction entre les critères. En plus de la sensibilité des paramètres utilisés dans ces algorithmes, est très difficile de comprendre pourquoi un critère est préféré par rapport à un autre. Pour répondre à cette première direction de recherche, nous avons proposé un modèle de combinaison de pertinence multicritères basé sur un opérateur d'agrégation qui permet de surmonter le problème d'additivité des fonctions de combinaison classiques. Notre modèle se base sur une mesure qui permet de donner une idée plus claire sur les corrélations et interactions entre les critères. Nous avons ainsi adapté ce modèle pour deux scénarios de combinaison de pertinence multicritères : (i) un cadre de recherche d'information multicritères dans un contexte de recherche de tweets et (ii) deux cadres de recherche d'information personnalisée. Le deuxième axe de recherche s'intéresse à l'intégration du facteur temporel dans le processus d'agrégation afin de tenir compte des changements occurrents sur les collection de documents au cours du temps. Pour ce faire, nous avons proposé donc un modèle d'agrégation sensible au temps pour combinant le facteur temporel avec le facteur de pertinence thématique. Dans cet objectif, nous avons effectué une analyse temporelle pour éliciter l'aspect temporel des requêtes, et nous avons proposé une évaluation de ce modèle dans une tâche de recherche sensible au temps
The main research topic of this document revolve around the information retrieval (IR) field. Traditional IR models rank documents by computing single scores separately with respect to one single objective criterion. Recently, an increasing number of IR studies has triggered a resurgence of interest in redefining the algorithmic estimation of relevance, which implies a shift from topical to multidimensional relevance assessment. In our work, we specifically address the multidimensional relevance assessment and evaluation problems. To tackle this challenge, state-of-the-art approaches are often based on linear combination mechanisms. However, these methods rely on the unrealistic additivity hypothesis and independence of the relevance dimensions, which makes it unsuitable in many real situations where criteria are correlated. Other techniques from the machine learning area have also been proposed. The latter learn a model from example inputs and generalize it to combine the different criteria. Nonetheless, these methods tend to offer only limited insight on how to consider the importance and the interaction between the criteria. In addition to the parameters sensitivity used within these algorithms, it is quite difficult to understand why a criteria is more preferred over another one. To address this problem, we proposed a model based on a multi-criteria aggregation operator that is able to overcome the problem of additivity. Our model is based on a fuzzy measure that offer semantic interpretations of the correlations and interactions between the criteria. We have adapted this model to the multidimensional relevance estimation in two scenarii: (i) a tweet search task and (ii) two personalized IR settings. The second line of research focuses on the integration of the temporal factor in the aggregation process, in order to consider the changes of document collections over time. To do so, we have proposed a time-aware IR model for combining the temporal relavance criterion with the topical relevance one. Then, we performed a time series analysis to identify the temporal query nature, and we proposed an evaluation framework within a time-aware IR setting
7

Thill, Antoine. "Agrégation des particules : structure, dynamique et simulation : application au cas d'un écoulement stratifié : l'estuaire du Rhône." Phd thesis, Aix-Marseille 3, 1999. http://tel.archives-ouvertes.fr/tel-00109390.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour objectif de comprendre et de mesurer les processus d'agrégation et leur impact sur le transport et le dépôt de matière à l'interface entre l'eau douce et l'eau de mer. Il combine des mesures de terrain au niveau de la zone de mélange du grand Rhône, des expériences de laboratoires et une étude numérique de l'agrégation.
En effet, afin de mener à bien cette étude, il a fallu développer de façon préliminaire différents outils. On a ainsi mis au point deux nouvelles méthodes de mesure expérimentale de la structure des agrégats qui échappent aux techniques existantes. Ces méthodes permettent, outre une meilleure connaissance du système, de développer et de valider un nouveau modèle de la cinétique de croissance des agrégats. Ce modèle numérique prend en compte la dimension fractale des agrégats ainsi que sa variabilité. Il est validé par confrontation à des données issues de la bibliographie et l'expériences.
Une étude de terrain dans l'estuaire du grand Rhône est menée dans des conditions hydrodynamiques contrastées (étiage, débit moyen et crue). Elle a permis d'obtenir, pour la première fois, une série de mesures de tailles de particules tout au long de la zone de mélange. Il est établi que les particules les plus grosses (supérieures à 5 microns) présentent une évolution contrôlée par la dilution, la sédimentation et
éventuellement la remise en suspension. Par contre, les particules plus petites (2 à 5 microns) montrent une augmentation de leur concentration le long de la zone de mélange. Dans les premiers temps du mélange, cette augmentation est liée à la fragmentation d'agrégats. Il est possible de montrer ensuite i) que l'agrégation des colloïdes ne peut expliquer cette augmentation que si ceux ci ne réagissent pas avec les fractions de tailles supérieures et présentent une réactivité très supérieure à la réactivité moyenne (alpha : 0.009) et ii) que la production primaire est un mécanisme probable pour expliquer cette augmentation.
8

Hozé, Nathanaël. "Modélisation et méthodes d'analyse de la diffusion et agrégation au niveau moléculaire pour l'organisation sous-cellulaire." Paris 6, 2013. http://www.theses.fr/2013PA066695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions la diffusion et l'agrégation dans le contexte de la biologie cellulaire. Notre objectif est d'obtenir des lois physiques de plusieurs processus tels que l'assemblage des particules ou des lois de la diffusion dans des microdomaines, afin de déterminer comment les processus sous-cellulaires sont construits à partir de l'organisation moléculaire élémentaire. Ce changement d'échelle peut être formulé et analysé à l'aide de plusieurs outils tels que les équations aux dérivées partielles, la physique statistique, les processus stochastiques et des simulations numériques. Nous présentons ici différentes méthodes et nous les appliquons à certaines questions en biophysique, en neurobiologie et en biologie cellulaire, en particulier au trafic de récepteurs sur la membrane cellulaire, l'organisation nucléaire et la dynamique de l'assemblage viral. Dans la première partie, pour obtenir une estimation du coefficient de diffusion effectif d'une particule brownienne se déplaçant entre des obstacles, nous calculons le temps moyen pour qu'une particule brownienne arrive à une petite ouverture définie comme la région de distance minimale entre deux disques de même rayon. La méthode repose sur la transformation conforme de Möbius appliquée à l'équation de Laplace. Ce résultat nous permet de développer des méthodes statistiques pour résoudre un problème d'ingénierie inverse qui consiste à retrouver les paramètres d'une équation stochastique à partir d'un grand nombre de trajectoires courtes. En appliquant cette méthode aux données de superrésolution du trafic des récepteurs, nous identifions un nouveau type d'organisation moléculaire, décrit par des puits de potentiel (partie déterministe de l'équation stochastique). Nous répondons ensuite à une autre question: comment reconstruire des surfaces à partir d'un large nombre de trajectoires stochastiques courtes? En utilisant la formule d'Ito, nous dérivons une nouvelle classe d'équations aux dérivées partielles non linéaires qui nous permettent de reconstruire la surface. Cette partie est illustrée par des exemples numériques. Dans la deuxième partie, nous nous concentrons sur un aspect de l'organisation nucléaire et notre objectif est de modéliser et d'analyser la dynamique des télomères (extrémités des chromosomes) dans le noyau cellulaire. Des résultats expérimentaux ont montré que les télomères de la levure s'organisent dynamiquement en un petit nombre de paquets par un mécanisme qui reste encore largement incompris. Nous utilisons une approche inspirée de la physique statistique pour étudier la dynamique des 32 télomères, que nous modélisons comme des particules browniennes indépendantes qui peuvent aussi former des agrégats. Nous estimons le nombre de paquets et le nombre des télomères par paquet en utilisant des formules exactes dérivées de notre modèle. Nous identifions les paramètres pertinents en comparant nos résultats avec les données expérimentales. En particulier, nous montrons qu'un seul paramètre, le ratio du taux d'association sur le taux de dissociation des télomères, permet d'expliquer la distribution des paquets de télomères dans différentes conditions. Enfin, nous développons un modèle empirique pour étudier l'agrégation de particules à un site de nucléation unique. La distribution des particules en petits paquets avant leur arrivée est la clé pour comprendre la cinétique de l'agrégation. Nous obtenons ces lois en utilisant d'abord un modèle déterministe, puis un processus de sauts stochastique, ce qui nous permet d'obtenir une expression explicite pour le temps moyen de formation du site de nucléation. Nous discutons certaines applications à la formation de la capside du VIH
In the present PhD thesis, we study diffusion and aggregation in the context of cellular biology. Our goal is to obtain physical laws of several processes such as particle assembly or laws of diffusion in microdomains, in order to determine how subcellular processes are constructed from elementary molecular organization. This change of scale can be formulated and analyzed using several tools such as partial differential equations, statistical physics, stochastic processes and numerical simulations. We present here several methods and we apply them to study questions in biophysics, neurobiology and cellular biology. Examples are receptors trafficking on cellular membrane, nuclear organization and the dynamics of viral assembly. In the first part, to obtain an estimation of the effective diffusion coefficient of a Brownian particle moving in between obstacles, we compute the mean time for a Brownian particle to arrive to a narrow opening defined as the region of minimal distance between two disks of identical radius. The method relies on M\"obius conformal transformation applied to the Laplace equation. Using this result, we develop statistical methods to solve a reverse engineering problem which consists in recovering parameters of a stochastic equation from a large number of short trajectories. Applying this method to superresolution data of receptor trafficking, we identify novel molecular organization, which are described as potential wells (deterministic part of the SDE). We next solve a different question: how is it possible to reconstruct surfaces from a large sample of short stochastic trajectories? By using Ito's formula, we derive a new class of nonlinear partial differential equations that allow us to reconstruct the surface. This section is illustrated with numerical examples. In the second part, we focus on an aspect of nuclear organization and our goal is to model and analyze telomere dynamics (ends of the chromosomes) in the cell nucleus. Early experimental findings reveal that yeast telomeres organize dynamically in a small numbers of clusters, yet this process remains poorly understood. Thus, we use a statistical physics approach to study the joint dynamics of the 32 telomeres, that we model as independent Brownian particles that can also form aggregates. We estimate the number of clusters and the number of telomeres per cluster using exact formula that we derive from our model. We identify the relevant parameters by comparing our results with experimental data. In particular, we show that a single parameter - the ratio of the association to the dissociation rate - is sufficient to account for telomere clustering in various conditions. Finally, we develop an empirical model to study particle aggregation to a single nucleation site. The distribution of particles in small clusters before arriving is a key ingredient to derive kinetic laws. We derive these laws using first a deterministic model and then a stochastic jump process, which allows us to obtain also an explicit expression for the mean time that the nucleation site is filled. We discuss some applications to HIV capsid formation
9

Coppin, David. "Agrégation de la convection dans un modèle de circulation générale : mécanismes physiques et rôle climatique." Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066057.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'agrégation de la convection dans le modèle de circulation générale LMDZ5A à l'équilibre radiatif-convectif (RCE). L'instabilité du RCE mise en évidence nous permet d'étudier les mécanismes d'initiation de l'agrégation et leur dépendance à la température de surface océanique (SST). A basse SST, l'agrégation résulte d'un couplage entre la circulation grande-échelle et les effets radiatifs des nuages bas. A haute SST, elle provient d'un couplage entre la circulation de grande-échelle et les flux turbulents à la surface. Le couplage de l'atmosphère avec une couche de mélange océanique rend l'initiation de l'agrégation moins dépendante de la SST et des mécanismes d'initiation, à l'exception des effets radiatifs des nuages hauts. L'impact de l'agrégation sur la sensibilité climatique et la température de surface est aussi analysé. En favorisant la formation de zones ciel clair sèches, l'agrégation refroidit fortement le système climatique. Toutefois, cet effet est limité par l'effet des changements de gradients de SST et de fraction de nuages bas qui tendent au contraire à faire augmenter la sensibilité climatique. Aux plus courtes échelles temporelles, en revanche, le couplage entre océan et agrégation de la convection est à l'origine d'une boucle de rétroaction stabilisatrice qui contrôle l'agrégation et renverse complètement son effet. Ainsi, l'effet de l'agrégation sur la sensibilité climatique est assez faible par rapport à ce que laissent penser les simulations où le couplage océan-atmosphère est absent. Ces résultats montrent l'importance de considérer le couplage océan-atmosphère dans l'étude du rôle de l'agrégation dans le climat
This thesis focuses on the study of convective aggregation in LMDZ5A general circulation model, used in Radiative-Convective Equilibrium (RCE) configuration. The instability of the RCE allows us to look at the mechanisms controlling the initiation of convective aggregation and its dependence on sea surface temperatures (SST). At low SSTs, a coupling between the large-scale circulation and the radiative effects of low clouds is needed to trigger self-aggregation. At high SSTs, the coupling between the large-scale circulation and the surface fluxes controls this initiation. When the atmosphere is coupled to a slab ocean mixed layer, SST gradients facilitate the initiation of convective aggregation. Except for the high-cloud radiative effects, triggering mechanisms are less crucial. Convection also becomes less dependent on the SST.The impact of convective aggregation on the climate sensitivity and surface temperature is also analyzed. Convective aggregation is found to increase the area of dry clear-sky zones. Thus, it tends to cool the system very efficiently. However, the negative feedback associated with an increase in aggregation is generally balanced by offsetting changes in SST gradients and low clouds that tend to increase the climate sensitivity. In contrast, at shorter timescales, the coupling between ocean and convective aggregation also controls the strength of convective aggregation and overturn its effect. Thus the impact of convective aggregation may not be as strong as what can be inferred from experiments with uniform SSTs.These results emphasize the importance of considering ocean-atmosphere coupling when studying the role of aggregation in climate
10

Bel, Liliane. "Sur la réduction des modèles linéaires : analyse de données en automatique." Paris 11, 1985. http://www.theses.fr/1985PA112306.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions ici deux méthodes de réduction dans l’espace d’état : l’agrégation et la troncature dans la base d’équilibre. Dans le cas de l’agrégation on propose une nouvelle méthode de sélection des valeurs propres qui est à la fois géométrique et séquentielle. Des problèmes de robustesse sont soulevés et résolus dans quelques cas particuliers. La base d’équilibre est abordée par le biais des degrés de commandabilité et d’observabilité. La notion de degré de perturbabilité est introduite. On étudie ensuite l’application de ces deux méthodes à la détermination d’une commande d’ordre réduit. Enfin les deux méthodes sont appliquées au système représentant le lanceur Ariane en vol
Two state space model reduction methods are studied: aggregation method and the balanced state space representation method. In the case of aggregation a new method of selecting eigenvalues is proposed, which is both geometrical and sequential. Problems of robustness of aggregation are evoked and resolved in some particular cases. The balanced state space representation is approached by means of contralibility and observability degrees. The notion of perturbability degree is introduced. Then we study the application of those two methods to reduced order compensator design. The two methods are finally applied to the system representing the launch booster Ariane flying
11

Vinatier, Gérald. "Relation entre l'agrégation et la toxicité dans des modèles de maladies neurodégénératives chez la drosophile." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une caractéristique commune aux maladies neurodégénératives est la présence d’agrégats protéiques sous différentes formes. Le but de ma thèse est de définir la relation qui lie agrégation et cytotoxicité. Pour cela, j'ai utilisé des modèles d’ataxies spinocérébelleuses de type 3 et 7 développés chez la drosophile qui récapitulent les principales caractéristiques de ces maladies à polyglutamine humaines. J’ai tout au long de ma thèse réalisé des expériences de biochimie qui m’ont permis d’établir que les agrégats -définis comme des objets de haut poids moléculaire résistant à une dénaturation au SDS bouillant- sont les formes principalement responsables de la toxicité des protéines à polyglutamine. Une hypothèse serait que les agrégats puissent être inhibiteurs de l’activité du protéasome. J’ai donc tenté d’évaluer l’activité du protéasome en présence des protéines mutantes. J’ai pu montrer que l'Ataxine 3 mutante entraine une réduction de l’activité du protéasome et que la co-synthèse d’un suppresseur de toxicité restaure cette activité. Cependant, il semble que la toxicité puisse s’affranchir de l’inhibition du protéasome mais les données que nous avons accumulées ne me permettent pas d’écarter complètement un rôle de cette inhibition comme source de toxicité in vivo
A common feature of neurodegenerative diseases is the formation of different forms of protein aggregates. During my Ph. D. , I tried to establish the relashionship that links aggregation and toxicity thanks to Drosophila models of Spinocerebellar ataxia type 3 and 7. These models recapitulate the main caracteristics of the corresponding human polyglutamine diseases, making Drosophila a good model to study aggregation and toxicity. My results demonstrate that aggregates in their biochemical definition (high-molecular-mass objects that resist denaturation by boiling SDS) are the major proteic species responsible for the toxicity. One hypothesis could be that aggregates inhibit the proteasomal activity. Thus, I tried to evaluate proteasomal activity in Drosophila expressing a mutant form of Ataxin 3. I have shown that mutated Ataxin 3 is responsible for a decrease in proteasomal activity, which can be blocked by a suppressor of ataxin 3-induced toxicity. However, it seems that proteasomal inhibition is not necessary for the toxicity even if I cannot exclude that this reduction of protein degradation participates to the toxicity of polyglutamine proteins
12

Coppin, David. "Agrégation de la convection dans un modèle de circulation générale : mécanismes physiques et rôle climatique." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066057/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'agrégation de la convection dans le modèle de circulation générale LMDZ5A à l'équilibre radiatif-convectif (RCE). L'instabilité du RCE mise en évidence nous permet d'étudier les mécanismes d'initiation de l'agrégation et leur dépendance à la température de surface océanique (SST). A basse SST, l'agrégation résulte d'un couplage entre la circulation grande-échelle et les effets radiatifs des nuages bas. A haute SST, elle provient d'un couplage entre la circulation de grande-échelle et les flux turbulents à la surface. Le couplage de l'atmosphère avec une couche de mélange océanique rend l'initiation de l'agrégation moins dépendante de la SST et des mécanismes d'initiation, à l'exception des effets radiatifs des nuages hauts. L'impact de l'agrégation sur la sensibilité climatique et la température de surface est aussi analysé. En favorisant la formation de zones ciel clair sèches, l'agrégation refroidit fortement le système climatique. Toutefois, cet effet est limité par l'effet des changements de gradients de SST et de fraction de nuages bas qui tendent au contraire à faire augmenter la sensibilité climatique. Aux plus courtes échelles temporelles, en revanche, le couplage entre océan et agrégation de la convection est à l'origine d'une boucle de rétroaction stabilisatrice qui contrôle l'agrégation et renverse complètement son effet. Ainsi, l'effet de l'agrégation sur la sensibilité climatique est assez faible par rapport à ce que laissent penser les simulations où le couplage océan-atmosphère est absent. Ces résultats montrent l'importance de considérer le couplage océan-atmosphère dans l'étude du rôle de l'agrégation dans le climat
This thesis focuses on the study of convective aggregation in LMDZ5A general circulation model, used in Radiative-Convective Equilibrium (RCE) configuration. The instability of the RCE allows us to look at the mechanisms controlling the initiation of convective aggregation and its dependence on sea surface temperatures (SST). At low SSTs, a coupling between the large-scale circulation and the radiative effects of low clouds is needed to trigger self-aggregation. At high SSTs, the coupling between the large-scale circulation and the surface fluxes controls this initiation. When the atmosphere is coupled to a slab ocean mixed layer, SST gradients facilitate the initiation of convective aggregation. Except for the high-cloud radiative effects, triggering mechanisms are less crucial. Convection also becomes less dependent on the SST.The impact of convective aggregation on the climate sensitivity and surface temperature is also analyzed. Convective aggregation is found to increase the area of dry clear-sky zones. Thus, it tends to cool the system very efficiently. However, the negative feedback associated with an increase in aggregation is generally balanced by offsetting changes in SST gradients and low clouds that tend to increase the climate sensitivity. In contrast, at shorter timescales, the coupling between ocean and convective aggregation also controls the strength of convective aggregation and overturn its effect. Thus the impact of convective aggregation may not be as strong as what can be inferred from experiments with uniform SSTs.These results emphasize the importance of considering ocean-atmosphere coupling when studying the role of aggregation in climate
13

Chaari, Ali. "Modulation de l'agrégation des protéines amyloïdes par de petites molécules : modèle du lysozyme." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au moins vingt protéines humaines peuvent s’agréger anormalement pour former des dépôts pathologiques qui sont associés à plusieurs maladies dégénératives. Malgré les nombreuses études concernant l’agrégation des amyloïdes et leurs toxicité, la base moléculaire de ce mécanisme reste inconnu. Au cours de ma thèse, j’ai analysé le processus d'agrégation du lysozyme à pH 2 et à 57°C par différents techniques. D’autre part, une attention particulière a été concentrée sur l'exploration de l'activité inhibitrice, de certains produits naturels, de la formation des fibrilles du lysozyme d’œuf de poulet en utilisant la spectroscopie de fluorescence, la microscopie de force atomique, la spectroscopie infra rouge et la diffusion dynamique de la lumière. Nous avons constaté que la formation des fibrilles in vitro a été inhiber par tous les produits de manière dose dépendante. De plus, ces molécules ont la capacité de désintégrer les fibrilles déjà préformés. Basé sur l'analyse de structure et de morphologie nous avons constaté que ces produits inhibent l’agrégation avec la même efficacité mais ils remodèlent différemment les oligomères. Aussi nous avons évalué l'effet de ces produits sur l’agrégation de l’alpha synucleine et les résultats montrent que ces produits inhibent son agrégation d’une manière dose dépendante. Ainsi, il apparaît que nicotine, dopamine, resvératrol, rutine et tyrosol sont des inhibiteurs génériques de la formation de fibrilles et peuvent remodeler différents de protéines amyloïdes
At least twenty human proteins can fold abnormally to form pathological deposits that are associated with several degenerative diseases. Despite extensive investigation on amyloid fibrillogenesis and toxicity of certain aggregate forms, its detailed molecular mechanisms remain unknown. During my PhD, I was analysed the aggregation process of lysozyme at pH 2 and 57°C by different techniques. Particular attention has been focused on the exploring the inhibitory activity of natural products such us nicotine, dopamine, resveratrol, rutine and tyrosol against the fibrillation of hen lysozyme by using fluoresecence spectroscopy, atomic force microscopy, infra rouge spectroscopy and dynamic light scattering. We found that the formation of amyloid fibrils in vitro was inhibited by all products in a dose dependent manner. Moreover, they were also capable of robustly disaggregating pre-formed oligomers. Based upon structure analysis we demonstrate that natural products inhibit the aggregation with the same efficacity but they remodel differently oligomers and amyloid fibrils. Also we have tested the effect of these products in the aggregation of alpha synuclein and results demonstrate that the formation of alpha synuclein amyloid fibrils was inhibited by all products in a dose dependent manner. Thus, it appears that nicotine; dopamine, resveratrol, rutine and tyrosol are generic inhibitors of amyloid fibril formation and can remodel different conformers of amyloid proteins
14

Charton, Eric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00622561.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d'attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d'exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l'implémentation d'un système de GAT en plusieurs langues et améliore les capacités d'adaptations d'un système de génération à un domaine sémantique particulier. La production, d'après un corpus d'apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l'extraction d'information et de la classification. Nous décrivons le système d'étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d'information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l'intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d'investigations prometteuses sur la nature du processus de formation de phrases
15

Hélias, Arnaud. "Agrégation/abstraction de modèles pour l'analyse et l'organisation de réseaux de flux : application à la gestion des effluents d'élevage à La Réunion." Montpellier, ENSA, 2003. http://www.theses.fr/2003ENSA0030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'essor de l'élevage intensif, notamment à l'île de la Réunion, induit une forte production d'effluents qui ne peut plus être négligée face aux contraintes environnementales et réglementaires associées. Modéliser les décisions d'épandage, leurs causes et conséquences apparaissent alors comme des points clés pour tester des scénarios de gestion des effluents d'élevages. Cette thèse porte sur la représentation dynamique d'un réseau de producteurs (i. E. , les élevages) et de consommateurs (i. E. , les cultures) d'effluents. Il faut alors confronter des dynamiques de stocks imprécises avec des modèles discrets de prise de décision. Notre approche est (i) une modélisation par le formalisme des automates temporisé accompagnée de (ii) la définition d'une procédure, automatisée et générique, d'approximation des modèles continus, avec prise en compte d'imprécisions SUl les états initiaux et les variables d'entrée. L'approche de discrétisation est notamment illustrée sur un procédé de digestion anaérobie de substrat carboné. Pour chacune des unités (de production ou de consommation) mises en jeu, un modèle est défini. Les décisions d'épandages sont alors étudiées en confrontant les modèles via des outils de model-checking qui permettent une vérification automatisée de propriétés sur les systèmes. Nous utilisons le logiciel Kronos, un outil de vérification dédié à la logique TCTL (Timed Computation Tree Logic). Nous donnons les paramètres des modèles pour les élevages et les cultures réunionnaises et illustrons notre approche par l'étude du fonctionnement d'une exploitation type. Ceci est réalisé par une procédure itérative entre tests et interprétations des résultats face aux connaissances agronomiques. Nous montrons en dernier lieu comment notre approche peut être utilisée pour représenter un réseau d'exploitations et l'approvisionnement d'une unité de transformation d'effluents
The development of the intensive livestock production, notably in the island of Reunion, increases the animal waste production that cannot be any more neglected because of environmental and legislation constraints. The key points to evaluate animal waste management scenarios are the modelling of spreading decisions, their causes, and their consequence. This Ph. D. Thesis concerns the dynamic representation of producer's (i. E. , livestocks) and consumer's (i. E. , crop cultures) in the waste network. Consequently, imprecise stock dynamics and decision taking discrete models have to be confronted. Our approach is i) a modelling by the timed automata formalism join to ii) an automated and generic procedure definition to continuous models approximation, with imprecision on initial state and the input variables. The discrete abstraction approach is iIIustrated on a carbon substrate anaerobic digestion process. For each (production or consumption) unit, a model is defined. Then, the spreading decisions are studied by confronting the models via model-checking tools, which allow an automated verification of system 's properties. The Kronos software was used as a tool dedicated to the Timed Computation Tree Logic (TCTL). The model parameters are given for livestocks and crop cultures in the Reunion Island context and the approach was illustrated by the study of the sample farm functioning. This is realized by an iterative procedure between test and result's interpretations in front of agronomie knowledge. It is shown lastly in this study how this approach can be used to represent a farm network and a waste treatment plant stock supply
16

El, Attar Ali. "Estimation robuste des modèles de mélange sur des données distribuées." Phd thesis, Nantes, 2012. https://archive.bu.univ-nantes.fr/pollux/show/show?id=b22726f5-f19e-4c6e-9dcb-451bb7a968e8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose une contribution en matière d’analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d’estimer la distribution de probabilité d’un jeu de données distribuées, à partir d’estimations locales de cette distribution, calculées sur des sousjeux de données locaux. En d’autres termes, il s’est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s’appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l’agrégation globale, à partir d’agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu’aux seuls paramètres des modèles de mélanges, et non aux données originales
This work proposes a contribution aiming at probabilistic model estimation, in the setting of distributed, decentralized, data-sharing computer systems. Such systems are developing over the internet, and also exist as sensor networks, for instance. Our general goal consists in estimating a probability distribution over a data set which is distributed into subsets located on the nodes of a distributed system. More precisely, we are at estimating the global distribution by aggregating local distributions, estimated on these local subsets. Our proposal exploits the following assumption: all distributions are modelled as a Gaussian mixture. Our contribution is a solution that is both decentralized and statistically robust to outlier local Gaussian mixture models. The proposed process only requires mixture parameters, rather than original data
17

El, Attar Ali. "Estimation robuste des modèles de mélange sur des données distribuées." Phd thesis, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00746118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.
18

Doyon, Julien. "Simulation numérique d'agrégats fractals en milieu de microgravité." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28588/28588.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Conrad, Arnaud. "Accumulation de molécules organiques modèles par des agrégats biologiques de type boues activées." Nancy 1, 2004. http://docnum.univ-lorraine.fr/public/SCD_T_2004_0259_CONRAD.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les milieux hydriques, la majorité des micro-organismes se trouve sous forme agrégée. Ces agrégats sont des structures complexes constitués d'une communauté très diversifiée de micro-organismes et d'unematrice de substances exopolymériques (EPS). Des protéines, des polysaccharides, des substances dites humiques, des acides nucléiques et des lipides composent les EPS. La charge globale négative, la présence de domaines hydrophobes, la capacité de dispersion/agrégation des agrégats et les enzymes extracellulaires associées aux EPS confèrent aux agrégats des propriétés adsorbantes particulières et influencent la dispersion des polluants dans l'environnement. Notre étude participe à une réflexion générale sur l'importance du domaine extracellulaire dans l'accumulation des composés organiques par les agrégats biologiques issus des stations d'épuration d'eaux usées urbaines. Ainsi, nous avons analysé les acides gras des agrégats biologiques et des EPS extraits de ces agrégats afin de constituer un référentiel nouveau et déterminer la composition du domaine extracellulaire des agrégats: au moins 85 acides gras différents composent les phospholipides, les 'glycolipides, les lipides neutres et les lipopolysaccharides. Malgré la faible proportion d'acides gras mesurée dans les EPS (1,8 %), ces composés jouent certainement un rôle considérable dans les propriétés adsorbantes des agrégats. Par ailleurs, l'analyse des acides gras des phospholipides montre l'existence de micro-organismes comme des eucaryotes, des bactéries à gram-positif ainsi que des bactéries à gram-négatif, des bactéries sulfato-réductrices, des mycobactéries, des levures et des champignons dans un état plus stressé en période hivernale comme le montre la proportion plus importante d'acides gras insaturés. Par ailleurs, l'analyse des acides gras a permis de séparer les sédiments et les matières en suspension de rivière prélevés en amont et en aval de la zone de rejet des eaux épurées d'une station d'épuration. Notre étude avait aussi pour objectif de créer en laboratoire des agrégats biologiques de propriétés définies par application de discontinuités en oxygène de courte durée. Cette étude a nécessité la standardisation des tests de mesure de l'hydrophobicité des agrégats par le test d'adhésion à l'octane et des EPS par chromatographie d'interaction hydrophobe. L'application de discontinuités en oxygène de courte durée ne semble pas suffisante pour affecter rapidement les caractéristiques physico-chimiques du domaine extracellulaire, même si quelques signaux sont mis en évidence: l'augmentation de la part d'EPS fortement retenus par un ligand hydrophobe, l'augmentation de la quantité de phospholipides des agrégats et l'augmentation de la proportion des acides gras 17:0 et 18:1 augmentent. Enfin, nous avons quantifié l'adsorption par des boues activées de trois molécules organiques (sulfonate d'alkylbenzène linéaire (CIl-LAS), azocaséine et azoalbumine) et la réversibilité de l'adsorption de ces trois molécules. L'adaptation d'outil analytique (extraction en phase solide, chromatographie liquide haute perfomance) a permis l'analyse des sulfonates d'alkylbenzène dans les échantillons d'eaux usées et de rivière. Les agrégats biologiques sont capables d'adsorber rapidement les molécules organiques modèles du milieu aqueux: <3. Umol d'azoprotéines et 18. Umol de CIl-LAS g-1 de matières organiques des agrégats. Nos résultats montrent que la désorption des C11-LAS en eau de rivière est plus importante que celle de l'azocaséine (hystérésis fortement marquée) et la désorption de ces molécules modèles est faiblement affectée par la force ionique du milieu. Aussi, les agrégats apparaissent comme des réservoirs et des vecteurs potentiels de polluants. Les polluants organiques associés aux agrégats biologiques peuvent être transportés et dispersés dans les milieux hydriques.
20

Segard, Bertrand-David. "Myopathies myofibrillaires liées aux gènes de la desmine et de l'alpha-B-cristalline : étude de nouveaux modèles cellulaires inductibles." Paris 7, 2013. http://www.theses.fr/2013PA077090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les myopathies myofibrillaires constituent un groupe de maladies musculaires squelettiques rares d'origine génétique se manifestant essentiellement à l'âge adulte et à l'évolution lente. Bien que ces pathologies puissent être associées à différents gènes, elles partagent toujours les caractéristiques suivantes : désorganisation du réseau de myofibrilles, accumulation de produits de dégradation et agrégation de diverses protéines. Nous avons créé un modèle cellulaire pour l'étude de l'impact de l'expression de protéines pathogènes dans le contexte musculaire squelettique. Ce modèle a montré d'excellentes caractéristiques et a été mis à profit pour l'étude de six variants de desmine (Des-S46Y, Des-D399Y et Des-S460I) et d'aB-cristalline (αBC- R120G, αBC-Q151X et αBC-464delCT) impliqués dans ces pathologies. Ce modèle met en lumière l'importance du contexte cellulaire complet et de la quantité de protéines exprimées vis-à-vis de l'agrégation. Nous avons été en mesure au cours de ces expérimentations de définir la réponse de ces variants à différents stress susceptibles d'être rencontrés durant l'activité musculaire (thermique, oxydatif et mécanique). De plus, un composé a montré une action anti-agrégative efficace dans un certain nombre des situations testées : le N-acétyl-L-cystéine. Le spectre des réponses aux stress et aux composés anti-agrégatifs testés de ces variants protéiques montrent que l'approche thérapeutique doit être finement analysée et préparée en fonction de nombreux paramètres. L'ensemble des modèles et des résultats obtenus permettent ainsi d'orienter les futures étapes de recherches précliniques sur les myopathies myofîbrillaires liées aux gènes DES et CRYAB
Myofibrillar myopathies are a group of rare genetic diseases affecting skeletal muscles with mainly adult onset and slow evolution. Although these pathologies can be associated with different genes, they still share the following characteristics: disruption of the myofibrils network, degradation products accumulation and aggregation of various proteins. We have created a cellular model for the study of the impact of the expression of pathogenic proteins in the skeletal muscle context. This model bas shown excellent characteristics and bas been used for the study of six variants of desmin (Des-S46Y, Des-D399Y and Des-S460I) and αB-crystallin (αBC-R120G, αBC-Q151X and αBC-464delCT) involved in these pathologies. This model highlights the importance of the full cellular context and the quantity of proteins expressed towards aggregation. We have been able during these experiments to define the response of these variants in different stress likely encountered during muscle activity (thermal, oxidative and mechanical). In addition, a compound bas shown effective anti-aggregation action in several tested situations: N-acetyl-L-cysteine. The spectrum of responses to stress and to anti-aggregation compounds tested of these protein variants show that the therapeutic approach must be finely parsed and prepared according to many parameters. All of the models and achieved results allow orienting the future stages of preclinical research on myofîbrillar myopathies associated with DES and CRYAB genes
21

Kaakai, Sarah. "Nouveaux paradigmes en dynamique de populations hétérogènes : modélisation trajectorielle, agrégation, et données empiriques." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066553/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la modélisation probabiliste de l’hétérogénéité des populations humaines et de son impact sur la longévité. Depuis quelques années, de nombreuses études montrent une augmentation alarmante des inégalités de mortalité géographiques et socioéconomiques. Ce changement de paradigme pose des problèmes que les modèles démographiques traditionnels ne peuvent résoudre, et dont la formalisation exige une observation fine des données dans un contexte pluridisciplinaire. Avec comme fil conducteur les modèles de dynamique de population, cette thèse propose d’illustrer cette complexité selon différents points de vue: Le premier propose de montrer le lien entre hétérogénéité et non-linéarité en présence de changements de composition de la population. Le processus appelé Birth Death Swap est défini par une équation dirigée par une mesure de Poisson à l’aide d’un résultat de comparaison trajectoriel. Quand les swaps sont plus rapides que les évènements démographiques, un résultat de moyennisation est établi par convergence stable et comparaison. En particulier, la population agrégée tend vers une dynamique non-linéaire. Nous étudions ensuite empiriquement l’impact de l’hétérogénéité sur la mortalité agrégée, en s’appuyant sur des données de population anglaise structurée par âge et circonstances socioéconomiques. Nous montrons par des simulations numériques comment l’hétérogénéité peut compenser la réduction d’une cause de mortalité. Le dernier point de vue est une revue interdisciplinaire sur les déterminants de la longévité, accompagnée d’une réflexion sur l’évolution des outils pour l’analyser et des nouveaux enjeux de modélisation face à ce changement de paradigme
This thesis deals with the probabilistic modeling of heterogeneity in human populations and of its impact on longevity. Over the past few years, numerous studies have shown a significant increase in geographical and socioeconomic inequalities in mortality. New issues have emerged from this paradigm shift that traditional demographic models are not able solve, and whose formalization requires a careful analysis of the data, in a multidisciplinary environment. Using the framework of population dynamics, this thesis aims at illustrating this complexity according to different points of view: We explore the link between heterogeneity and non-linearity in the presence of composition changes in the population, from a mathematical modeling viewpoint. The population dynamics, called Birth Death Swap, is built as the solution of a stochastic equation driven by a Poisson measure, using a more general pathwise comparison result. When swaps occur at a faster rate than demographic events, an averaging result is obtained by stable convergence and comparison. In particular, the aggregated population converges towards a nonlinear dynamic. In the second part, the impact of heterogeneity on aggregate mortality is studied from an empirical viewpoint, using English population data structured by age and socioeconomic circumstances. Based on numerical simulations, we show how a cause of death reduction could be compensated in presence of heterogeneity. The last point of view is an interdisciplinary survey on the determinants of longevity, accompanied by an analysis on the evolution of tools to analyze it and on new modeling issues in the face of this paradigm shift
22

Igel, Angélique. "Mécanismes d'inactivation des protéines amyloïdes." Paris 7, 2013. http://www.theses.fr/2013PA077101.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fibres amyloïdes correspondent à des assemblages protéiques insolubles associés aux maladies neurodégénératives. En tenant compte des propriétés biophysiques de ces fibres qui leur confèrent une très grande résistance, et du spectre de leur transmissibilité, tout laisse suggérer que des actes médico-chirurgicaux pourraient potentiellement induire ou transmettre des amyloïdoses par l'inoculation de noyaux de nucléation. L'objectif de ce travail est d'évaluer les mécanismes d'inactivation des assemblages d'Ap et de prion, afin de comprendre les mécanismes d'inactivation des protéines amyloïdes. Dans un premier temps, nous avons évalué l'évolution de la structure quaternaire des assemblages de prion issus de 3 souches (263K, vCJD et 139A) après des traitements de décontamination. L'ensemble des résultats obtenus montrent que l'inactivation du prion sont souche-dépendants. Cette propriété intrinsèque des souches serait due à une structuration différente des protomères de PrP au sein des assemblages. Enfin, des approches similaires à celles employées dans le champ des prions ont été utilisées afin d'évaluer la résistance des assemblages amyloïdes issus de la maladie d'Alzheimer (peptide Aß). Nos résultats préliminaires d'inactivation du peptide synthétique Ap, montrent que ce peptide, dans son état fïbrillaire, possède des propriétés lui conférant une haute résistance. Afin d'approfondir nos résultats dans un modèle de peptide ayant subit une maturation de repliement in-vivo, nous avons mis au point un nouveau modèle cellulaire exprimant le peptide Aß40. Ce nouvel outil d'étude est opérationnel depuis peu et semble prometteur pour l'étude des propriétés du peptide Aß
Amyloides fibers correspond to insoluble protein assemblies associated to the neurodegenerative diseases. By taking into account properties biophysics of these fibers which confer them a very high resistance, and the spectre of their transmissibility, everything lets suggest that medical surgical acts could potentially lead or transmit amyloidoses by the inoculation of nucleation seed. The objective of this work is to estimate mechanisms of inactivation of A ß and prion assemblies, to understand the mechanisms of inactivation of amyloides proteins. At first, we estimated the evolution of the quaternary structure of the assemblies of prion stemming from 3 strains (263K, vCJD and 139A) after decontamination treatments. Ail results demonstrate that the inactivation of prion are strain dependent. This intrinsic property of strain would be due to different structuring of PrP protomers within the assemblies. Finally, similar approaches to those used on the field of prions were used to estimate the résistance of amyloide assemblies stemming from the Alzheimer's disease (peptide A ß). Our preliminary results of synthetic peptide A ß inactivation, show that this peptide, in its fibrillar state, possesses properties conferring it a high strength. To deepenour results in a model of peptide having sudden a maturation of in-vivo withdrawal, we have designed a new cellular model expressing the peptide A640. This new tool is operational recently and seems promising for the study of the properties of the peptide Aß
23

Teisseire, Jérémie. "Tack de matériaux modèles." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2006. http://tel.archives-ouvertes.fr/tel-00175670.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions, dans une approche expérimentale et théorique, les mécanismes de séparation et de rupture lors de la traction d'un matériau confiné entre deux plaques parallèles (test de probe-tack). Cette étude est menée sur deux matériaux choisis pour leur comportement rhéologique de liquides viscoélastiques : une huile de silicones de grande masse, d'une part, et les mélanges d'une huile de silicones de faible masse avec des nanoparticules (à base de silice) en proportions variées, d'autre part.
L'étude réalisée sur le premier matériau a permis de mettre en évidence qu'outre la digitation et la cavitation, mécanismes de rupture observés sur des liquides newtoniens, un mécanisme de fracture peut également apparaître, la fracture étant localisée à l'interface entre la plaque solide et le matériau viscoélastique. Un modèle théorique, faisant notamment intervenir la cinétique de cavitation, a été élaboré pour interpréter la succession de ces mécanismes et décrire les courbes de traction. Le bon accord entre les prédictions et les résultats expérimentaux valide l'importance du rôle de la cinétique et nous permet d'expliquer l'apparition de fractures malgré la croissance préalable de cavités.
Le second système étudié provient de la déformulation d'adhésifs industriels. Nous avons tout d'abord étudié l'influence de la proportion en particules sur la rhéologie des mélanges. Nous avons observé une évolution des paramètres rhéologiques, que nous avons comparée à l'évolution de l'adhésion des mélanges. Nous avons ainsi pu corréler la présence d'un second plateau de force, observé fréquemment pour de véritables adhésifs, au taux de particules dans le matériau. Enfin, cette étude nous a permis de proposer la voie de rupture optimale pour un matériau adhésif.
24

Cugniet, Patrick. "Etude de l'agrégation de particules solides en milieu non mouillant. Interprétation et modélisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2003. http://tel.archives-ouvertes.fr/tel-00012127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La compréhension des mécanismes d'agrégation de particules solides en milieu non mouillant revêt une grande importance dans de nombreuses disciplines scientifiques. Pour réaliser cette étude, le système modèle retenu est constitué de particules de silice rendues hydrophobes plongées dans un mélange eau - éthanol. Etant donné le caractère fragile des agrégats, l'agrégation se devait d'être étudiée in-situ ce qui a pu être réalisé grâce a un capteur turbidimétrique développé au laboratoire. Pour connaître la taille finale et la morphologie des agrégats, d'autres méthodes ont également été utilisées ce qui a permis de confronter les résultats entre eux. L'influence de différents paramètres sur l'agrégation ont ensuite été étudiés telles que la vitesse d'agitation, la mouillabilité, la présence ou non d'un milieu désaéré, l'injection de bulles...
La modélisation des phénomènes d'agrégation – fragmentation utilise l'approche des bilans de populations et prend en compte l'hydrodynamique de la suspension ainsi que les aspects physico-chimiques propres à la non mouillabilité. L'un des points les plus importants qui ressort de cette étude concerne la diminution de la fragmentation due à la présence de ponts gazeux entre les particules solides plongées dans un milieu liquide non mouillant.
25

Delort, Florence. "Utilisation de modèles cellulaires et animaux dans l’étude des mécanismes moléculaires impliqués dans les desminopathies." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les desminopathies, appartiennent aux myopathies myofibrillaires (MMF) et sont dues à des mutations du gène DES, codant la desmine. C'est un filament intermédiaire, essentiel pour l'alignement structural et fonctionnel puis l'ancrage des myofibrilles ainsi que le positionnement des organites et d’éléments de signalisation. De plus, parmi les soixante-dix mutations du gène DES, certaines peuvent produire différents phénotypes familiaux, suggérant que les facteurs environnementaux influent aussi sur l’état pathologique. Par ailleurs, les protéines musculaires des patients présentent des caractéristiques oxydatives qui évoquent un lien entre le stress oxydatif et l'agrégation des protéines dans les MMF. Pour améliorer notre compréhension des desminopathies, nous avons développé des modèles cellulaires dans des myoblastes afin d’observer, dans un contexte isogénique, le comportement de la desmine humaine de type sauvage ou portant des mutations pathologiques lors de la formation d'agrégats intra-cytoplasmiques. Nous avons préalablement démontré que seule la substitution D399Y localisée dans le domaine 2B présente une réponse agrégative induite par le stress oxydatif contrairement à deux autres mutations de la tête et la queue de la protéine. De plus, un prétraitement à la NAC mais également avec des molécules pro-autophagiques prévient cette agrégation. Dans la continuité de ce travail, j'ai donc étudié le phénotype de lignées cellulaires exprimant d'autres mutations du domaine 2B. Ainsi, j'ai montré qu'en réponse aux stress DesQ389P et DesD399Y partagent un caractère agrégatif commun sans modification structurale semblable. DesR406W présente également des agrégats, mais plus petits et plus dispersés dans le cytoplasme. De plus cette agrégation est également évitée par prétraitement à la NAC pour les trois lignées cellulaires. Au contraire, il n’y a pas d'agrégation inductible par le stress pour la mutation A357P. Par ailleurs, l’analyse des contenus redox intra-cytoplasmiques ainsi que les modifications post traductionnelles de la desmine dans nos modèles cellulaires présentent une variabilité propre à chaque mutation qui peut être corrigée par la NAC. Afin d’analyser la capacité anti-agrégative de la NAC in vivo, des modèles animaux ont aussi été construits. Ainsi, la surexpression de la desmine D399Y induit des caractéristiques physiopathologiques similaires à celles observées chez les patients. En conclusion, nos résultats confirment que chaque mutation conduit à ses propres mécanismes moléculaires pathologiques et il sera important d'intégrer ces comportements spécifiques à chaque mutant pour envisager les traitements futurs
Desminopathies, belonging to the myofibrillar myopathies (MFM), are due to mutations in the DES gene, encoding desmin protein. It is an intermediate filament protein, essential for structural and functional alignment plus anchorage of myofibrils as well as the positioning of cell organelles and notably signaling events. Moreover among seventy mutations of DES gene, some can produce different phenotypes within a family, suggesting that environmental factors influence disease states. Beside this, patient muscle proteins show oxidative features and support a link between oxidative stress, protein aggregation and abnormal protein deposition in MFM. To improve our understanding of desminopathies, we have developed skeletal muscle cell models to observe desmin behavior upon formation of intra-cytoplasmic aggregates, in an isogenic context. These cells express human desmin carrying Wild Type or pathological mutations. We have already demonstrated that only the D399Y substitution localized in the desmin 2B domain presents an aggregative answer induced by oxidative stress, two other mutations in the head and the tail of the protein do not. Furthermore, a pretreatment with NAC but also with pro-autophagic molecules prevents this aggregation. In the continuity of this work, I thus studied the cellular phenotype of lineages expressing other mutations of the domain 2B. So, I showed that in answer to stress DesQ389P and DesD399Y share a common aggregative character without common structural modification. DesR406W also exhibits aggregates, but smaller and more spread in the cytoplasm. Of more this aggregation is also avoided by pretreatment with NAC for these three cell lines. In contrast, there is no stress inducible aggregation in DesA357P. Besides, the analysis of the redox intra-cytoplasmic contents as well as desmin posttranslational modifications in our cell models present variability for each mutation which can be corrected by the NAC. To analyze NAC anti-aggregative capacity in vivo, animal models were also built. So the surexpression of the desmin D399Y leads to similar physiopathological characteristics to those observed in patients. In conclusion, our results confirm that each mutation leads to its own pathological molecular mechanisms and it will be important to integrate these specific mutant behaviors to consider future treatment
26

Charton, Éric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases." Thesis, Avignon, 2010. http://www.theses.fr/2010AVIG0175/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d’attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d’exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l’implémentation d’un système de GAT en plusieurs langues et améliore les capacités d’adaptations d’un système de génération à un domaine sémantique particulier. La production, d’après un corpus d’apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l’extraction d’information et de la classification. Nous décrivons le système d’étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d’information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l’intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d’investigations prometteuses sur la nature du processus de formation de phrases
Natural Language Generation (NLG) is the natural language processing task of generating natural language from a machine representation system. In this thesis report, we present an architecture of NLG system relying on statistical methods. The originality of our proposition is its ability to use a corpus as a learning resource for sentences production. This method offers several advantages : it simplifies the implementation and design of a multilingual NLG system, capable of sentence production of the same meaning in several languages. Our method also improves the adaptability of a NLG system to a particular semantic field. In our proposal, sentence generation is achieved trough the use of sentence models, obtained from a training corpus. Extracted sentences are abstracted by a labelling step obtained from various information extraction and text mining methods like named entity recognition, co-reference resolution, semantic labelling and part of speech tagging. The sentence generation process is achieved by a sentence realisation module. This module provide an adapted sentence model to fit a communicative intent, and then transform this model to generate a new sentence. Two methods are proposed to transform a sentence model into a generated sentence, according to the semantic content to express. In this document, we describe the complete labelling system applied to encyclopaedic content to obtain the sentence models. Then we present two models of sentence generation. The first generation model substitute the semantic content to an original sentence content. The second model is used to find numerous proto-sentences, structured as Subject, Verb, Object, able to fit by part a whole communicative intent, and then aggregate all the selected proto-sentences into a more complex one. Our experiments of sentence generation with various configurations of our system have shown that this new approach of NLG have an interesting potential
27

D'Orange, Marie. "Utilisation de nouveaux modèles rongeurs de tauopathie pure, obtenus par transfert de gène, pour caractériser le lien entre l’agrégation de Tau et sa toxicité." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS339/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les tauopathies sont des maladies neurodégénératives caractérisées par l’agrégation de protéine Tau. Mis à part ce marqueur pathologique commun, les tauo-pathies présentent une grande diversité, tant sur le plan clinique qu’anatomo-pathologique, qui pourrait résulter de mécanismes pathologiques différents. Un mécanisme commun pourrait impliquer de petits agrégats de type oligomériques comme étant l’espèce toxique dans les tauopathies.L’objectif de ce projet est de déveloper plusieurs modèles de tauopathies, génétiques ou sporadiques, par transfer de gène de la protéine Tau humaine à l’aide de vecteurs adéno-associés. Trois vecteurs sont utilisés, chacun induisant un phénotype spécifique. Tout d’abord, la surexpression de hTAUWT induit une hyperphosphorylation de la protéine associée à une forte mort neuronale, mais en absence d’agrégation.Sa co-expression avec le peptide pro-agrégant TauRD-ΔK280 dans le groupe hTAUProAggr promeut son agrégation, ce qui est associé à des effets neuroprotecteurs. La construction hTAUP301L induit à la fois la formation d’agrégats solubles et matures, associée à un niveau intermédiaire de toxicité. Ces résultats supportent l’idée que les formes solubles oligomériques jouent un rôle crucial dans la pathologie associée à Tau.Ces modèles rapides, obtenus après expression de Tau à des niveaux similaires, récapitulent donc la variabilité phénotypique observée dans les tauopathies humaines. Ils devraient servir dans le futur pour étudier les mécanismes sous-tendant la toxicité des différentes espèces de Tau. Ils pourraient aussi être utiles pour étudier la spécificité et la sélectivité de composés développés pour l’imagerie de Tau par tomographie par émission de positon
Tauopathies are neurodegenerative diseases characterized by the aggregation of Tau protein. Despite this common hallmark, tauopathies exhibit a wide variety of clinical and anatomo-pathological presentations, which may possibly result from different pathological mechanisms. One hypothesized common mechanism, however, implicates small oligomeric aggregates as drivers of Tau-induced toxicity.The aim of this project was to develop models of sporadic and genetic tauopathies, using adeno-associated viruses to mediate gene transfer of human Tau to the rat brain. Three different constructs were used, each giving rise to a specific phenotype. First, hTAUWT overexpression led to a strong hyperphosphorylation of the protein which was associated with neurotoxicity in absence of any significant aggregation. Its co-expression with the pro-aggregation peptide TauRD-ΔK280 in the hTAUProAggr group strongly promoted its aggregation, with neuroprotective effects. hTAUP301L construct led to aggregation into soluble species as well as mature aggregates accompanied with an intermediate toxicity. Those results support the hypothesis that soluble oligomeric species are key players of Tau-induced neurodegeneration.Those fast developing models, obtained through similar overexpression of human Tau, thus recapitulated the phenotypic variability observed in human tauopathies. Those should prove useful in the future to study mechanisms underlying the toxicity of various Tau species. Those could also serve to study the specificity and selectivity of Tau-directed tracers for positon emission tomography (PET) imaging
28

Kirchner, Sara. "Approche multi-échelle de l'agrégation dans le procédé de précipitation de boehmite." Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/15134/1/Kirchner.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux portent sur la précipitation de boehmite AlOOH, qui est le précurseur de l’alumine γ – Al2O3, support catalytique utilisé dans de nombreux procédés de raffinage. Le contrôle de la porosité de ces particules est crucial afin de minimiser les limitations par transfert de matière et de chaleur et d’améliorer la performance des catalyseurs. La porosité de l’alumine provient en partie de l’étape de précipitation de boehmite. Elle est conservée du fait de la topotacticité de la transformation boehmite - alumine. La boehmite est obtenue par précipitation de sels d’aluminium. L’effet des paramètres physico-chimiques, tels que la température et le pH, sur les propriétés du matériau a été largement étudié dans la littérature. Cependant, peu d’études ont permis la mise en évidence des phénomènes régissant l’agrégation durant le procédé de précipitation. L’objectif de cette étude est de comprendre et de quantifier les paramètres de précipitation influençant l’agrégation de la boehmite au cours de sa synthèse. La précipitation de la boehmite a été réalisée dans deux types de dispositifs de précipitation. Le dispositif double-jets, utilisé à l’échelle industrielle, induit des conditions non-homogènes de sursaturation et de fraction volumique en particules, tant temporellement que spatialement. La deuxième méthode de précipitation de boehmite utilise des pré-mélangeurs (Hartridge-Roughton et Y), dans lequel le micro-mélange et la sursaturation initiale sont finement contrôlés. La sursaturation a été calculée au cours de la précipitation sur la base du modèle thermodynamique de Pitzer. Celle-ci est significativement plus importante dans le dispositif pré-mélangeur. L’effet des paramètres opératoires a été mis en évidence sur les propriétés texturales de la boehmite via des caractérisations ex situ (DRX, adsorption-désorption d’azote par méthode BET, cryo-MET). Les matériaux issus du dispositif double-jets présentent une porosité d’autant plus aérée que la sursaturation est faible, et il existe une valeur seuil de sursaturation au-delà de laquelle la porosité n’est plus impactée par ce paramètre, comme c’est le cas dans le dispositif pré-mélangeur. Dans ce cas, aucun autre paramètre opératoire n’affecte la texture du matériau. Ces résultats mettent en évidence des mécanismes d’agrégation dépendant directement de la sursaturation. Des techniques de caractérisation originales ont par ailleurs été mises en place afin de suivre la dynamique de l’agrégation. L’analyse par diffusion multiple de la lumière a permis de mettre en évidence des cinétiques d’agrégation différentes, directement corrélées à la porosité, et ce avant les étapes de filtration-lavage-séchage. Une analyse fine des états d’agrégation a été réalisée in situ par SAXS à rayonnement synchrotron. Cette étude a permis de proposer différents scénarii des mécanismes d’agrégation. Il apparaît que les fibres de boehmite s’agrègent de manière beaucoup plus aérée à faible sursaturation. Une porosité visée pourrait ainsi être obtenue par un contrôle fin de la sursaturation. Enfin, une première approche de modélisation par bilan de population a été développée afin de décrire les processus de formation des fibres et d’agrégation secondaire.
29

Mabon, Gwennaëlle. "Estimation non-paramétrique adaptative pour des modèles bruités." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons au problème d'estimation de densité dans le modèle de convolution. Ce cadre correspond aux modèles avec erreurs de mesures additives, c'est-à-dire que nous observons une version bruitée de la variable d'intérêt. Pour mener notre étude, nous adoptons le point de vue de l'estimation non-paramétrique adaptative qui repose sur des procédures de sélection de modèle développées par Birgé & Massart ou sur les méthodes de Lepski. Cette thèse se divise en deux parties. La première développe des méthodes spécifiques d'estimation adaptative quand les variables d'intérêt et les erreurs sont des variables aléatoires positives. Ainsi nous proposons des estimateurs adaptatifs de la densité ou encore de la fonction de survie dans ce modèle, puis de fonctionnelles linéaires de la densité cible. Enfin nous suggérons une procédure d'agrégation linéaire. La deuxième partie traite de l'estimation adaptative de densité dans le modèle de convolution lorsque la loi des erreurs est inconnue. Dans ce cadre il est supposé qu'un échantillon préliminaire du bruit est disponible ou que les observations sont disponibles sous forme de données répétées. Les résultats obtenus pour des données répétées dans le modèle de convolution permettent d'élargir cette méthodologie au cadre des modèles linéaires mixtes. Enfin cette méthode est encore appliquée à l'estimation de la densité de somme de variables aléatoires observées avec du bruit
In this thesis, we are interested in nonparametric adaptive estimation problems of density in the convolution model. This framework matches additive measurement error models, which means we observe a noisy version of the random variable of interest. To carry out our study, we follow the paradigm of model selection developped by Birgé & Massart or criterion based on Lepski's method. The thesis is divided into two parts. In the first one, the main goal is to build adaptive estimators in the convolution model when both random variables of interest and errors are distributed on the nonnegative real line. Thus we propose adaptive estimators of the density along with the survival function, then of linear functionals of the target density. This part ends with a linear density aggregation procedure. The second part of the thesis deals with adaptive estimation of density in the convolution model when the distribution is unknown and distributed on the real line. To make this problem identifiable, we assume we have at hand either a preliminary sample of the noise or we observe repeated data. So, we can derive adaptive estimation with mild assumptions on the noise distribution. This methodology is then applied to linear mixed models and to the problem of density estimation of the sum of random variables when the latter are observed with an additive noise
30

Normand, Raoul. "Modèles déterministes et aléatoires d'agrégation limitée et phénomène de gélification." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00631419.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions des modèles d'agrégation limitée, qui modélisent la coalescence de particules ayant des "bras", c'est-à-dire un nombre fixé de liens potentiels. Une particule ne peut donc créer plus de liens que son nombre de bras. On s'intéresse en particulier à une variante de l'équation de Smoluchowski introduite par Jean Bertoin. Ce document comprend, outre l'introduction, trois chapitres. Le premier est dévolu à l'étude d'un modèle sexué de coagulation, où les particules ont des bras mâles et femelles et seuls des bras de sexes opposés peuvent se joindre. Ce modèle généralise et unifie ceux de Bertoin, dont on peut en particulier retrouver les résultats. Le second chapitre comprend un travail en collaboration avec Lorenzo Zambotti. On s'y intéresse à l'unicité des solutions d'équations de coagulation après gélification, en particulier l'équation de Smoluchowski avec noyau multiplicatif et l'équation d'agrégation limitée. En particulier, on donne des preuves rigoureuses de certaines heuristiques de la littérature physique, par exemple en calculant précisément le temps de gélification. Dans le cas d'agrégation limitée, on obtient aussi des formules particulièrement simples pour les concentrations limites. Pour expliquer celles-ci, on étudie dans le dernier chapitre un modèle microscopique pour l'équation de Smoluchowski d'agrégation limitée. Ceci est un travail commun avec Mathieu Merle. On parvient à décrire précisément l'état microscopique du système à tout temps et ainsi à retrouver les formules du second chapitre. Une caractéristique frappante de ce modèle est qu'il possède une propriété de criticalité auto-organisée.
31

De, lozzo Matthias. "Modèles de substitution spatio-temporels et multifidélité : Application à l'ingénierie thermique." Thesis, Toulouse, INSA, 2013. http://www.theses.fr/2013ISAT0027/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la construction de modèles de substitution en régimes transitoire et permanent pour la simulation thermique, en présence de peu d'observations et de plusieurs sorties.Nous proposons dans un premier temps une construction robuste de perceptron multicouche bouclé afin d'approcher une dynamique spatio-temporelle. Ce modèle de substitution s'obtient par une moyennisation de réseaux de neurones issus d'une procédure de validation croisée, dont le partitionnement des observations associé permet d'ajuster les paramètres de chacun de ces modèles sur une base de test sans perte d'information. De plus, la construction d'un tel perceptron bouclé peut être distribuée selon ses sorties. Cette construction est appliquée à la modélisation de l'évolution temporelle de la température en différents points d'une armoire aéronautique.Nous proposons dans un deuxième temps une agrégation de modèles par processus gaussien dans un cadre multifidélité où nous disposons d'un modèle d'observation haute-fidélité complété par plusieurs modèles d'observation de fidélités moindres et non comparables. Une attention particulière est portée sur la spécification des tendances et coefficients d'ajustement présents dans ces modèles. Les différents krigeages et co-krigeages sont assemblés selon une partition ou un mélange pondéré en se basant sur une mesure de robustesse aux points du plan d'expériences les plus fiables. Cette approche est employée pour modéliser la température en différents points de l'armoire en régime permanent.Nous proposons dans un dernier temps un critère pénalisé pour le problème de la régression hétéroscédastique. Cet outil est développé dans le cadre des estimateurs par projection et appliqué au cas particulier des ondelettes de Haar. Nous accompagnons ces résultats théoriques de résultats numériques pour un problème tenant compte de différentes spécifications du bruit et de possibles dépendances dans les observations
This PhD thesis deals with the construction of surrogate models in transient and steady states in the context of thermal simulation, with a few observations and many outputs.First, we design a robust construction of recurrent multilayer perceptron so as to approach a spatio-temporal dynamic. We use an average of neural networks resulting from a cross-validation procedure, whose associated data splitting allows to adjust the parameters of these models thanks to a test set without any information loss. Moreover, the construction of this perceptron can be distributed according to its outputs. This construction is applied to the modelling of the temporal evolution of the temperature at different points of an aeronautical equipment.Then, we proposed a mixture of Gaussian process models in a multifidelity framework where we have a high-fidelity observation model completed by many observation models with lower and no comparable fidelities. A particular attention is paid to the specifications of trends and adjustement coefficients present in these models. Different kriging and co-krigings models are put together according to a partition or a weighted aggregation based on a robustness measure associated to the most reliable design points. This approach is used in order to model the temperature at different points of the equipment in steady state.Finally, we propose a penalized criterion for the problem of heteroscedastic regression. This tool is build in the case of projection estimators and applied with the Haar wavelet. We also give some numerical results for different noise specifications and possible dependencies in the observations
32

Ben, Amira Wael. "Comportement hydrodynamique des nanoparticules au cours de la séparation magnétique." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4797/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons dans cette thèse une étude du comportement hydrodynamique des nanoparticules en suspension dans un ferrofluide et soumises à un gradient de champ magnétique. Le but est de caractériser la séparation magnétique, d'une suspension colloïdale, dans le cadre d'un projet de conception d'un système de traitement des eaux HGMS . Nous développons un modèle mathématique qui décrit le suivi Lagrangien des nanoparticules dans un fluide porteur. Il est basé sur la description de Fokker-Planck et la description de Langevin tout en tenant compte des interactions hydrodynamiques et magnétiques . Le modèle prend aussi en compte la géométrie des agrégats qui se forment. A partir de la simulation numérique, nous constatons que le temps de séparation dépend fortement de la taille et de la longueur des agrégats qui se forment au cours du processus de séparation. L'étude de la cinétique d'agrégation montre l'existence d'une loi d'échelle dynamique. Dans l'agrégation irréversible, des chaînes linéaires de particules se forment et leur taille moyenne évolue dans le temps avec une loi d'échelle à faible puissance. L'exposant de cette variation avec l'équation de coagulation de Smoluchowski avec un noyau homogène. En utilisant le comportement asymptotique, aux temps longs, d'une solution des équations de Smoluchowski, nous mettons en évidence un temps caractéristique de l'agrégation et nous montrons que ce temps est une variable de similarité dont dépend le temps de séparation. Nous montrons aussi que la loi d'échelle est toujours valide pour des nanoparticules dans un écoulement de Poiseuille et que la taille moyenne suit une loi de puissance en fonction du nombre de Reynolds
We present in this thesis a study of the hydrodynamic behavior of nanoparticles suspended in a ferrofluid and subjected to a magnetic field gradient. The goal is to characterize the magnetic separation of a colloidal suspension in a project to design a water treatment system HGMS (High Gradient Magnetic Separation) that can also have other applications. We develop a mathematical model that describes the Lagrangian tracking of nanoparticles in a carrier fluid. It is based on the Fokker- Planck and Langevin descriptions while taking account of magnetic and hydrodynamic interactions between particles. The model also takes into account the geometry of the formed aggregates. From the numerical simulation, we find that the separation time depends strongly on the size and length of the aggregates formed during the separation process. The study of the kinetics of aggregation shows the existence of a regime with dynamic scaling. In the irreversible aggregation linear chains of particles are formed and their average size changes over time with a scaling law with a low power. The variation exponent of the average size of chains is consistent with the Smoluchowski coagulation equation with a homogeneous kernel. Using the asymptotic, long-time behavior, of a solution of Smoluchowski equations we highlight a characteristic time of aggregation and we show that this time is a similarity variable on which depend the separation time. We also show that the scaling law is still valid for nanoparticles in a Poiseuille flow and the average size follows a power law as a function of Reynolds number
33

Maillard, Guillaume. "Hold-out and Aggregated hold-out Aggregated Hold-Out Aggregated hold-out for sparse linear regression with a robust loss function." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASM005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En statistiques, il est fréquent d'avoir à choisir entre plusieurs estimateurs (sélection d'estimateurs) ou à les combiner. Cela permet notamment d'adapter la complexité d'un modèle statistique en fonction des données (compromis biais-variance). Pour les problèmes de minimisation de risque, une méthode simple et générale, la validation ou hold-out, consiste à consacrer une partie de l'échantillon à l'estimation du risque des estimateurs, dans le but de choisir celui de risque minimal. Cette procédure nécessite de choisir arbitrairement un sous-échantillon "de validation". Afin de réduire l'influence de ce choix, il est possible d'agréger plusieurs estimateurs hold-out en les moyennant (Agrégation d'hold-out). Dans cette thèse, le hold-out et l'agrégation d'hold-out sont étudiés dans différents cadres. Dans un premier temps, les garanties théoriques sur le hold-out sont étendues à des cas où le risque n'est pas borné: les méthodes à noyaux et la régression linéaire parcimonieuse. Dans un deuxième temps, une étude précise du risque de ces méthodes est menée dans un cadre particulier: l'estimation de densité L² par des séries de Fourier. Il est démontré que l'agrégation de hold-out peut faire mieux que le meilleur des estimateurs qu'elle agrège, ce qui est impossible pour une méthode qui, comme le hold-out ou la validation croisée, sélectionne un seul estimateur
In statistics, it is often necessary to choose between different estimators (estimator selection) or to combine them (agregation). For risk-minimization problems, a simple method, called hold-out or validation, is to leave out some of the data, using it to estimate the risk of the estimators, in order to select the estimator with minimal risk. This method requires the statistician to arbitrarily select a subset of the data to form the "validation sample". The influence of this choice can be reduced by averaging several hold-out estimators (Aggregated hold-out, Agghoo). In this thesis, the hold-out and Agghoo are studied in various settings. First, theoretical guarantees for the hold-out (and Agghoo) are extended to two settings where the risk is unbounded: kernel methods and sparse linear regression. Secondly, a comprehensive analysis of the risk of both methods is carried out in a particular case: least-squares density estimation using Fourier series. It is proved that aggregated hold-out can perform better than the best estimator in the given collection, something that is clearly impossible for a procedure, such as hold-out or cross-validation, which selects only one estimator
34

Ahmed, Ahmed. "Utilisation de l'ingénierie dirigée par les modèles pour l'agrégation continue de données hétérogènes : application à la supervision de réseaux de gaz." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0049/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant les dix dernières années, l'infrastructure informatique et l'infrastructure industrielle ont évolué de manière à passer de systèmes monolithiques à des systèmes hétérogènes, autonomes et largement distribués. Tous les systèmes ne peuvent pas coexister de manière isolée et exigent que leurs données soient partagées de manière à accroître la productivité de l'entreprise. En fait, nous progressons vers des systèmes complexes plus vastes où des millions des systèmes doivent être intégrés. Ainsi, l'exigence d'une solution d'interopérabilité peu coûteuse et rapide devient un besoin essentiel. Aujourd'hui, les solutions imposent les normes ou les middlewares pour gérer cette problématique. Cependant, ces solutions ne sont pas suffisantes et nécessitent souvent des développements ad-hoc spécifiques. Ainsi, ce travail propose l'étude et le développement d'une architecture d'interopérabilité générique, modulaire, agnostique et extensible basée sur des principes de l'architecture dirigée par les modèles et les concepts de la séparation de préoccupations. Il vise à promouvoir l'interopérabilité et l'échange de données entre les systèmes hétérogènes en temps réels sans obliger les systèmes à se conformer à des normes ou technologies spécifiques. La proposition s'applique à des cas d'usages industriels dans le contexte de réseau de distribution de gaz français. La validation théorique et empirique de notre proposition corrobore note hypothèses que l'interopérabilité entre les systèmes hétérogènes peut être atteinte en utilisant les concepts de la séparation de préoccupations et de l'ingénierie dirigée par les modèles et que le coût et le temps pour promouvoir l'interopérabilité est réduit en favorisant les caractéristiques de la réutilisabilité et de l'extensibilité
Over the last decade, the information technology and industrial infrastructures have evolved from containing monolithic systems to heterogeneous, autonomous, and widely distributed systems. Most systems cannot coexist while completely isolated and need to share their data in order to increase business productivity. In fact, we are moving towards larger complex systems where millions of systems and applications need to be integrated. Thus, the requirement of an inexpensive and fast interoperability solution becomes an essential need. The existing solutions today impose standards or middleware to handle this issue. However, these solutions are not sufficient and often require specific ad-hoc developments. Thus, this work proposes the study and the development of a generic, modular, agnostic and extensible interoperability architecture based on modeling principles and software engineering aspects. It aims to promote interoperability and data exchange between heterogeneous systems in real time without requiring systems to comply with specific standards or technologies. The industrial use cases for this work takes place in the context of the French gas distribution network. The theoretical and empirical validation of our proposal corroborates assumptions that the interoperability between heterogeneous systems can be achieved by using the aspects of separation of concerns and model-driven engineering. The cost and time to promote the interoperability are also reduced by promoting the characteristics of re-usability and extensibility
35

Vledouts, Alexandre. "Fragmentation explosive d'anneaux et de coques." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4362.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On s'intéresse à la fragmentation d'objets cohésifs au travers d'un ensemble d'expériences modèles. Dans une première expérience, on force l'extension radiale d'un anneau formé de grains cohésifs (billes magnétiques ou billes de polymères liées par des ponts liquides). Sous l'effet de l'extension, les grains se séparent, puis, à cause de la cohésion, ils entament une dynamique d'agrégation qui conduit à la formation de fragments de tailles diverses. On montre que la distribution des tailles de fragments ainsi formés converge vers une loi de distribution Gamma et on propose un modèle expliquant l'évolution auto-similaire de la distribution. Dans un deuxième temps, on introduit une distribution d'intensité des liaisons entre les grains. La fragmentation en présence de ces "défauts" conduit à une distribution des tailles de fragments plus large, mais dont la loi est conservée. Dans une dernière étude, une coque sphérique composée de liquide est forcée à s'étendre par la combustion d'un mélange de gaz réactif emprisonné à l'intérieur de celle-ci. La distribution des tailles des gouttes qui en résulte obéit à la même famille de lois de distribution que celles observées pour les anneaux composés de grains cohésifs. Dans cette dernière expérience, le rôle des défauts est joué par les instabilités hydrodynamiques se développant sur la surface de la coque liquide au cours de son extension. Ainsi la largeur de la distribution des tailles de gouttes dépend de la vigueur de l'extension de la coque liquide
We are studying the fragmentation of cohesive objects through a set of model experiments. In a first experiment, we force the radial extension of a ring made of cohesive grains (magnetic beads or polymer beads bonded with liquid bridges). Because of the extension, the grains separate from each other, then, because of the cohesion, start an aggregation dynamic leading to the formation of fragments of different sizes. We show that the distribution of the fragment sizes formed in this way converge to a Gamma law distribution and we propose a model explaining the self-similar evolution of the distribution. On a second part we introduce a distribution of intensities of the bonds between the grains. The fragmentation in the presence of "defects" leads to a broader size distribution, with the same law. In a last study, a spherical shell composed with liquid is forced to extend by the combustion of a reagent mixture of gas confined inside. The drop size distribution observed is conform to the same family of distribution laws found for the rings composed with cohesive grains. In this last experiment the role of defects is played by the hydrodynamic instabilities developing on the surface of the liquid shell under extension. Thus the broadness of the drop size distribution depends on the strength of extension of the liquid shell
36

René, Malika. "Impact de traitements à haute pression isostatique ou dynamique sur des systèmes protéiques modèles : recherche d'indicateurs biologiques de traitement." Montpellier 2, 2009. http://www.theses.fr/2009MON20012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des indicateurs biologiques de traitement ont été recherchés pour évaluer l'impact de traitements à haute pression sur des systèmes protéiques modèles tels que (i) l'entérotoxine A de Staphylococcus aureus (SEA) et (ii) un isolat de protéines lactosériques. Les effets de la pression isostatique appliquée à la SEA en solution dans un tampon Tris-HCl (20 mM, pH 7,4) en présence ou non d'agent chaotropique, dissociant ou chélateur (urée 8M, dodécyle sulfate de sodium 30 mM ou acide tétraacétique d'éthylène diamine 1 mM) ont été explorés. Parmi les méthodes étudiées (i. E. Toxicité de la SEA sur des cellules Caco-2 ; superantigénicité de la SEA évaluée par la prolifération de lymphocytes T de rat ; immunoréactivité de la SEA), la superantigénicité de la toxine a montré les réponses les plus nettes après traitement de la SEA à 600 MPa pendant 15 min et 20°C ou 45°C. En parallèle, la fluorescence intrinsèque de la protéine a été étudiée par spectroscopie sous pression entre 10 et 600 MPa, à 20°C ou 45°C, ou bien en présence d'urée, à 20°C. L'ensemble des résultats indique que la pressurisation jusqu'à 600 MPa à 20°C entraîne des modifications de structure réversibles sans modification de la réponse superantigénique de la SEA, et donc une baro-résistance de la toxine. Par contre, le traitement à 600 MPa et 45°C, ou bien la présence d'urée à 20°C (0,1 ou 600 MPa) entraîne des modifications de structure partiellement réversibles accompagnées d'une augmentation de la réponse superantigénique de la toxine. La pression dynamique (aussi appelée homogénéisation à ultra-haute pression, UHPH) appliquée à des dispersions de protéines lactosériques à des niveaux de pression supérieurs à 200 MPa, entraîne la formation d'agrégats protéiques de taille submicronique et contrôlée. Le comportement de ces protéines sur des monocouches de cellules TC7 a été exploré à la fois par l'évaluation de la quantité de protéines transportées à travers les cellules et l'observation des coupes cellulaires par microscopie confocale à fluorescence. Les cinétiques de transport montrent la pénétration progressive de la beta-lactoglobuline (protéine majoritaire) et probablement des agrégats induits par le procédé, à travers la monocouche cellulaire en fonction de la durée d'incubation des cellules
Biological indicators for food processing were studied in view of characterising the effects of high pressure processing on model proteins such as (i) Staphylococcus aureus enterotoxin A (SEA) and (ii) whey protein isolate. The effects of isostatic high pressure applied to SEA solution in Tris-HCl buffer (20 mM, pH 7,4) in the presence or not of chatropic, dissociating or chelating agents (urea 8M, sodium dodecyl sulfate 30 mM or ethylene diamine tetraacetic acid 1 mM) have been investigated. Among the methods tested (i. E. SEA toxicity on Caco-2 cells; SEA superantigenicity as evaluated by the proliferation of rat T lymphocytes; SEA immunoreactivity), SEA superantigenicity displayed the finest changes in the biological responses that SEA could induce after processing at 600 MPa for 15 min and 20°C or 45°C. In parallel, the intrinsic protein fluorescence was studied by spectrofluorimetry under pressure between 10 and 600 MPa, at 20°C or 45°C, or in the presence of urea, at 20°C. Pressurisation up to 600 MPa at 20°C induced structural modifications that were reversible without changes in the SEA superantigenic response, and indicate some baro-resistance of the toxin. In contrast, processing at 600 MPa and 45°C, or processing at 20°C in the presence of urea (at 0. 1 or 600 MPa) induced partially reversible structural changes accompanied by an increase in SEA superantigenicity. Dynamic high pressure (also called ultra-high pressure homogenization, UHPH) at pressure levels above 200 MPa applied to dispersions of whey protein isolate induced protein aggregates of submicron and controlled sizes. The protein behaviour on TC7 cell monolayers was investigated both by assessing the amount of transported proteins through the cells, and using confocal fluorescence spectroscopy. Transport kinetics indicated that beta-lactoglobulin (the major whey protein) and probably the protein aggregates induced by UHPH enter the cell layers and progress inside the cells as a function of exposure time
37

Kervegant, Françoise. "Contribution aux simplifications quantitatives des modélisations de sûreté." Compiègne, 1991. http://www.theses.fr/1991COMPD397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre des études de sureté, l'étude s'intéresse aux problèmes de quantification de modèles élémentaires qui se fondent sur les méthodes des processus de Markov ou des arbres de défaillance. Pour ces modélisations les problèmes résultent de la complexité du système qui conduisent à l'élaboration de modèles de grande taille dont l'évaluation exacte ne peut être effectuée. Pour les processus de Markov, la complexité résulte de la taille de l'espace d'états, la simplification adoptée consiste en une agrégation d'états bien que les conditions d'agrégation ne soient pas vérifiées. L'objectif est alors de déterminer le générateur du processus agrégé de telle sorte que le processus initial et le processus agrégé aient des comportements dynamiques similaires. La méthode proposée repose sur l'approximation de la loi de séjour dans les états agrégés par une combinaison linéaire de deux exponentielles. Ainsi pour chaque modèle approximé nous déduisons un graphe réduit à trois ou quatre états à l'aide des paramètres de la loi de séjour approchée et de la théorie des processus de renouvellement. Par cette approche, nous sommes en mesure de réduire la modélisation d'un système de n éléments à l'état de macro-élément en appliquant de façon itérative la procédure d'approximation proposée. En outre, cette approche permet d'estimer correctement le comportement dynamique du système modélisé. Pour les arbres de défaillance, l'évaluation de la probabilité d'occurrence d'un événement indésirable repose généralement sur la recherche et l'évaluation de l'ensemble des coupes minimales. Cette méthode entraine fréquemment des problèmes d'évaluation dûs à la taille de l'ensemble minimal. La démarche étudiée consiste à limiter le nombre de coupes minimales prises en compte en introduisant un critère de troncature sur ordre. L'objectif est de développer une méthode d'estimation de l'erreur commise lors de cette simplification. Nous montrons alors que la méthode développée donne des résultats satisfaisants par rapport aux méthodes proposées dans la littérature.
38

Houdard, Antoine. "Some advances in patch-based image denoising." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le contexte des méthodes non locales pour le traitement d'images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d'autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l'image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble.Dans le premier chapitre, le principe du "global denoising" est reformulé avec le formalisme classique de l'estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l'image et sur le filtre global sont introduites pour assurer et quantifier la convergence.Le deuxième chapitre est consacré à l'étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d'images par patches. Ces a priori sont largement utilisés pour la restauration d'image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ?Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performance de l'état-de-l'art.Le dernier chapitre explore des pistes d'agrégation différentes et propose une écriture de l’étape d'agrégation sous la forme d'un problème de moindre carrés
This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into "patches". These patches can then be grouped, compared and filtered together.In the first chapter, "global denoising" is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence.The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image?The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed
39

Houdard, Antoine. "Some advances in patch-based image denoising." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le contexte des méthodes non locales pour le traitement d'images et a pour application principale le débruitage, bien que les méthodes étudiées soient suffisamment génériques pour être applicables à d'autres problèmes inverses en imagerie. Les images naturelles sont constituées de structures redondantes, et cette redondance peut être exploitée à des fins de restauration. Une manière classique d’exploiter cette auto-similarité est de découper l'image en patchs. Ces derniers peuvent ensuite être regroupés, comparés et filtrés ensemble.Dans le premier chapitre, le principe du "global denoising" est reformulé avec le formalisme classique de l'estimation diagonale et son comportement asymptotique est étudié dans le cas oracle. Des conditions précises à la fois sur l'image et sur le filtre global sont introduites pour assurer et quantifier la convergence.Le deuxième chapitre est consacré à l'étude d’a priori gaussiens ou de type mélange de gaussiennes pour le débruitage d'images par patches. Ces a priori sont largement utilisés pour la restauration d'image. Nous proposons ici quelques indices pour répondre aux questions suivantes : Pourquoi ces a priori sont-ils si largement utilisés ? Quelles informations encodent-ils ?Le troisième chapitre propose un modèle probabiliste de mélange pour les patchs bruités, adapté à la grande dimension. Il en résulte un algorithme de débruitage qui atteint les performance de l'état-de-l'art.Le dernier chapitre explore des pistes d'agrégation différentes et propose une écriture de l’étape d'agrégation sous la forme d'un problème de moindre carrés
This thesis studies non-local methods for image processing, and their application to various tasks such as denoising. Natural images contain redundant structures, and this property can be used for restoration purposes. A common way to consider this self-similarity is to separate the image into "patches". These patches can then be grouped, compared and filtered together.In the first chapter, "global denoising" is reframed in the classical formalism of diagonal estimation and its asymptotic behaviour is studied in the oracle case. Precise conditions on both the image and the global filter are introduced to ensure and quantify convergence.The second chapter is dedicated to the study of Gaussian priors for patch-based image denoising. Such priors are widely used for image restoration. We propose some ideas to answer the following questions: Why are Gaussian priors so widely used? What information do they encode about the image?The third chapter proposes a probabilistic high-dimensional mixture model on the noisy patches. This model adopts a sparse modeling which assumes that the data lie on group-specific subspaces of low dimensionalities. This yields a denoising algorithm that demonstrates state-of-the-art performance.The last chapter explores different way of aggregating the patches together. A framework that expresses the patch aggregation in the form of a least squares problem is proposed
40

Claude, Mathilde. "Agrégation thermique de l’ovalbumine et modulation de l’allergénicité." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4027/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’allergie alimentaire est un problème de santé publique. Si de nombreux allergènes ont été identifiés, les formes sous lesquelles ces protéines doivent être consommées pour être mieux tolérées par le système immunitaire restent méconnues. L’œuf, aliment fréquemment responsable d’allergie alimentaire chez l’enfant, entre dans la composition de nombreux produits alimentaires et est susceptible de subir des traitements thermiques variés. L’objectif de cette thèse était d’évaluer l’effet de l’agrégation protéique induite par traitement thermique sur l’allergénicité d’un allergène majeur de l’oeuf, l’ovalbumine (OVA). Une étude a permis de mettre en évidence que l’agrégation de l’OVA module l’allergénicité de la protéine en influençant d’une part la sensibilisation en augmentant la production d’IgG dans un modèle murin et d’autre part le déclenchement en diminuant la capacité de liaison aux IgE et la capacité de dégranulation des basophiles dans le modèle murin et pour des IgE de patients allergiques. Au-delà du phénomène d’agrégation, la structure même des agrégats modifie l’allergénicité de l’OVA. Des agrégats linéaires formés sous des conditions électrostatiques de répulsion induisent une production plus faible d’IgE chez la souris et une diminution du déclenchement par rapport à des agrégats sphériques. L’agrégation de l’OVA modifie également sa capacité à activer des basophiles après digestion et après passage de la barrière intestinale. Tous ces résultats apportent des éléments de compréhension sur la tolérance à l’œuf cuit et permettent ainsi de donner des pistes d’amélioration des procédés alimentaires pour la population à risque d’allergie
Food allergies constitute a public health problem. Many allergens were already identified but the way proteins have to be consumed in order to be more tolerated by immune system remains unknown. Egg, one of the most important causes of food allergy among children, is present in a wild range of food products and is susceptible to be exposed to various thermal treatments. The aim of this work was to evaluate the effect of thermal aggregation of protein on allergenicity of one major allergen within egg, ovalbumin. One study using murine model allowed highlighting that aggregation of OVA modulates allergenicity of the protein by influencing both phases of the allergic reaction. During the sensitization, IgG production increased. Aggregation of ovalbumin also decreased its IgE-binding capacity and basophil activation ability in the murine model and for IgE from egg allergic patients. Beyond the aggregation phenomenon, the structure of aggregates itself modifies the allergenicity of ovalbumin. Aggregates formed under repulsive electrostatic conditions (linear aggregates of few ten nanometers) induced in a murine model lower IgE production during sensitization phase and consequently decreases elicitation phase compared to other aggregates (spherical aggregates of few ten micrometers) formed under different conditions. Aggregation of ovalbumin also modified the basophil degranulation ability after digestion and transport across the epithelial barrier. All these results give some comprehensive elements about tolerance to cooked egg and allowed giving some clues to enhance food technologic process for children with a risk to develop allergy
41

Montuelle, Lucie. "Inégalités d'oracle et mélanges." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112364/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce manuscrit se concentre sur deux problèmes d'estimation de fonction. Pour chacun, une garantie non asymptotique des performances de l'estimateur proposé est fournie par une inégalité d'oracle. Pour l'estimation de densité conditionnelle, des mélanges de régressions gaussiennes à poids exponentiels dépendant de la covariable sont utilisés. Le principe de sélection de modèle par maximum de vraisemblance pénalisé est appliqué et une condition sur la pénalité est établie. Celle-ci est satisfaite pour une pénalité proportionnelle à la dimension du modèle. Cette procédure s'accompagne d'un algorithme mêlant EM et algorithme de Newton, éprouvé sur données synthétiques et réelles. Dans le cadre de la régression à bruit sous-gaussien, l'agrégation à poids exponentiels d'estimateurs linéaires permet d'obtenir une inégalité d'oracle en déviation, au moyen de techniques PAC-bayésiennes. Le principal avantage de l'estimateur proposé est d'être aisément calculable. De plus, la prise en compte de la norme infinie de la fonction de régression permet d'établir un continuum entre inégalité exacte et inexacte
This manuscript focuses on two functional estimation problems. A non asymptotic guarantee of the proposed estimator’s performances is provided for each problem through an oracle inequality.In the conditional density estimation setting, mixtures of Gaussian regressions with exponential weights depending on the covariate are used. Model selection principle through penalized maximum likelihood estimation is applied and a condition on the penalty is derived. If the chosen penalty is proportional to the model dimension, then the condition is satisfied. This procedure is accompanied by an algorithm mixing EM and Newton algorithm, tested on synthetic and real data sets. In the regression with sub-Gaussian noise framework, aggregating linear estimators using exponential weights allows to obtain an oracle inequality in deviation,thanks to pac-bayesian technics. The main advantage of the proposed estimator is to be easily calculable. Furthermore, taking the infinity norm of the regression function into account allows to establish a continuum between sharp and weak oracle inequalities
42

Eugène, Sarah. "Stochastic modelling in molecular biology : a probabilistic analysis of protein polymerisation and telomere shortening." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066193/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous proposons une analyse probabiliste de deux problèmes de biologie moléculaire dans lesquels la stochasticité joue un rôle essentiel : la polymérisation des protéines dans les maladies neurodégénératives ainsi que le raccourcissement des télomères. L’agrégation des protéines en fibrilles amyloïdes est un important phénomène biologique associé à plusieurs maladies humaines telles que les maladies d’Alzheimer, de Huntington ou de Parkinson, ou encore l’amylose ou bien le diabète de type 2. Comme observé au cours des expériences reproduisant les petits volumes des cellules, les courbes d’évolution cinétique de l’agrégation des protéines présentent une phase de croissance exponentielle précédée d’une phase de latence extrêmement fluctuante, liée au temps de nucléation. Après une introduction au problème de polymérisation des protéines dans le chapitre I, nous étudions dans le chapitre II les origines et les propriétés de la variabilité de ladite phase de latence ; pour ce faire, nous proposons un modèle stochastique minimal qui permet de décrire les caractéristiques principales des courbes expérimentales d’agrégation de protéines. On considère alors deux composants chimiques : les monomères et les monomères polymérisés. Au départ, seuls sont présents les monomères ; par suite, ils peuvent polymériser de deux manières différentes : soit deux monomères se rencontrent et for- ment deux monomères polymérisés, soit un monomère se polymérise à la suite d’une collision avec un autre monomère déjà polymérisé. Malgré son efficacité, la simplicité des hypothèses de ce modèle ne lui permet pas de rendre compte de la variabilité observée au cours des expériences. C’est pourquoi dans un second temps, au cours du chapitre III, nous complexifions ce modèle afin de prendre en compte d’autres mécanismes impliqués dans la polymérisation et qui sont susceptibles d’augmenter la variabilité du temps de nucléation. Lors de ces deux chapitres, des résultats asymptotiques incluant diverses échelles de temps sont obtenus pour les processus de Markov correspondants. Une approximation au premier et au second ordre du temps de nucléation sont obtenus à partir de ces théorèmes limites. Ces résultats re- posent sur une renormalisation en temps et en espace du modèle de population, ainsi que sur un principe d’homogénéisation stochastique lié à une version modifiée d’urne d’Ehrenfest. Dans une seconde partie, un modèle stochastique décrivant le raccourcissement des télomères est pro- posé. Les chromosomes des cellules eucaryotes sont raccourcis à chaque mitose à cause des mécanismes de réplication de l’ADN incapables de répliquer les extrémités du chromosome parental. Afin d’éviter une perte de l’information génétique, ces chromosomes possèdent à chaque extrémité des télomères qui n’encodent pas d’information génétique. Au fil des cycles de réplication, ces télomères sont raccourcis jusqu’à rendre la division cellulaire impossible : la cellule entre alors en sénescence réplicative. L’objectif de ce modèle est de remonter aux caractéristiques de la distribution initiale de la taille des télomères à partir de mesures de temps de sénescence
This PhD dissertation proposes a stochastic analysis of two questions of molecular biology in which randomness is a key feature of the processes involved: protein polymerisation in neurodegenerative diseases on the one hand, and telomere shortening on the other hand. Self-assembly of proteins into amyloid aggregates is an important biological phenomenon associated with human diseases such as prion diseases, Alzheimer’s, Huntington’s and Parkinson’s disease, amyloidosis and type-2 diabetes. The kinetics of amyloid assembly show an exponential growth phase preceded by a lag phase, variable in duration, as seen in bulk experiments and experiments that mimic the small volume of the concerned cells. After an introduction to protein polymerisation in chapter I, we investigate in chapter II the origins and the properties of the observed variability in the lag phase of amyloid assembly. This variability is currently not accounted for by deterministic nucleation-dependent mechanisms. In order to tackle this issue, a stochastic minimal model is proposed, simple, but capable of describing the characteristics of amyloid growth curves. Two populations of chemical components are considered in this model: monomers and polymerised monomers. Initially, there are only monomers and from then, two possible ways of polymerising a monomer: either two monomers collide to combine into two polymerised monomers, or a monomer is polymerised by the encounter of an already polymerised monomer. However efficient, this simple model does not fully explain the variability observed in the experiments, and in chapter III, we extend it in order to take into account other relevant mechanisms of the polymerisation process that may have an impact on fluctuations. In both chapters, asymptotic results involving different time scales are obtained for the corresponding Markov processes. First and second order results for the starting instant of nucleation are derived from these limit theorems. These results rely on a scaling analysis of a population model and the proof of a stochastic averaging principle for a model related to an Ehrenfest urn model. In the second part, a stochastic model for telomere shortening is proposed. In eukaryotic cells, chromosomes are shortened with each occurring mitosis, because the DNA polymerases are unable to replicate the chromosome down to the very end. To prevent potentially catastrophic loss of genetic information, these chromosomes are equipped with telomeres at both ends (repeated sequences that contain no genetic information). After many rounds of replication however, the telomeres are progressively nibbled to the point where the cell cannot divide anymore, a blocked state called replicative senescence. The aim of this model is to trace back to the initial distribution of telomeres from measurements of the time of senescence
43

Aniorté, Philippe. "Bases d'informations généralisées : modèle agrégatif, version et hypertext." Toulouse 3, 1990. http://www.theses.fr/1990TOU30001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux se situent dans le domaine des systemes integres multimedia. Ils concernent plus particulierement la manipulation d'objets complexes et volumineux, a l'aide du modele agregatif. Compte tenu de la nature des objets manipules les documents le modele est etendu a la gestion de versions et a la consultation hypertext. Apres un etat des recherches dans les domaines de la modelisation et la manipulation des objets complexes, les principaux concepts du modele agregatif sont presentes. La suite est consacree a la manipulation des objets complexes et volumineux. Dans un premier temps, le langage de manipulation associe au modele agregatif est etudie en vue de son implantation. Puis sont detaillees la gestion de versions et la consultation hypertext, au niveau de l'utilisateur et au niveau interne. Enfin, un systeme integrant ces fonctionnalites est propose. L'interface utilisateur de ce systeme et les principaux elements d'implantation dans un environnement relationnel sont presentes
44

Ouni, Zaïd. "Statistique pour l’anticipation des niveaux de sécurité secondaire des générations de véhicules." Thesis, Paris 10, 2016. http://www.theses.fr/2016PA100099/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La sécurité routière est une priorité mondiale, européenne et française. Parce que les véhicules légers (ou simplement “les véhicules”) sont évidemment l’un des acteurs principaux de l’activité routière, l'amélioration de la sécurité routière passe nécessairement par l’analyse de leurs caractéristiques accidentologiques. Si les nouveaux véhicules sont développés en bureau d’étude et validés en laboratoire, c’est la réalité accidentologique qui permet de vraiment cerner comment ils se comportent en matière de sécurité secondaire, c’est-à-dire quelle sécurité ils offrent à leurs occupants lors d’un accident. C’est pourquoi les constructeurs souhaitent procéder au classement des générations de véhicules en fonction de leurs niveaux de sécurité secondaire réelle. Nous abordons cette thématique en exploitant les données nationales d’accidents corporels de la route appelées BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). En complément de celles-ci, les données de parc automobile permettent d’associer une classe générationelle (CG) à chaque véhicule. Nous élaborons deux méthodes de classement de CGs en termes de sécurité secondaire. La première produit des classements contextuels, c’est-à-dire des classements de CGs plongées dans des contextes d’accident. La seconde produit des classements globaux, c’est-`a-dire des classements de CGs déterminés par rapport à une distribution de contextes d’accident. Pour le classement contextuel, nous procédons par “scoring” : nous cherchons une fonction de score qui associe un nombre réel à toute combinaison de CG et de contexte d’accident ; plus ce nombre est petit, plus la CG est sûre dans le contexte d’accident donné. La fonction de score optimale est estimée par “ensemble learning”, sous la forme d’une combinaison convexe optimale de fonctions de score produites par une librairie d’algorithmes de classement par scoring. Une inégalité oracle illustre les performances du méta-algorithme ainsi obtenu. Le classement global est également basé sur le principe de “scoring” : nous cherchons une fonction de score qui associe à toute CG un nombre réel ; plus ce nombre est petit, plus la CG est jugée sûre globalement. Des arguments causaux permettent d’adapter le méta-algorithme évoqué ci-dessus en s’affranchissant du contexte d’accident. Les résultats des deux méthodes de classement sont conformes aux attentes des experts
Road safety is a world, European and French priority. Because light vehicles (or simply“vehicles”) are obviously one of the main actors of road activity, the improvement of roadsafety necessarily requires analyzing their characteristics in terms of traffic road accident(or simply “accident”). If the new vehicles are developed in engineering department and validated in laboratory, it is the reality of real-life accidents that ultimately characterizesthem in terms of secondary safety, ie, that demonstrates which level of security they offer to their occupants in case of an accident. This is why car makers want to rank generations of vehicles according to their real-life levels of safety. We address this problem by exploiting a French data set of accidents called BAAC (Bulletin d’Analyse d’Accident Corporel de la Circulation). In addition, fleet data are used to associate a generational class (GC) to each vehicle. We elaborate two methods of ranking of GCs in terms of secondary safety. The first one yields contextual rankings, ie, rankings of GCs in specified contexts of accident. The second one yields global rankings, ie, rankings of GCs determined relative to a distribution of contexts of accident. For the contextual ranking, we proceed by “scoring”: we look for a score function that associates a real number to any combination of GC and a context of accident; the smaller is this number, the safer is the GC in the given context. The optimal score function is estimated by “ensemble learning”, under the form of an optimal convex combination of scoring functions produced by a library of ranking algorithms by scoring. An oracle inequality illustrates the performance of the obtained meta-algorithm. The global ranking is also based on “scoring”: we look for a scoring function that associates any GC with a real number; the smaller is this number, the safer is the GC. Causal arguments are used to adapt the above meta-algorithm by averaging out the context. The results of the two ranking procedures are in line with the experts’ expectations
45

Bellec, Pierre C. "Sharp oracle inequalities in aggregation and shape restricted regression." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLG001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Deux sujet sont traités dans cette thèse: l'agrégation d'estimateurs et la régression sous contrainte de formes.La régression sous contrainte de forme étudie le problème de régression (trouver la fonction qui représente un nuage de points),avec la contrainte que la fonction en question possède une forme spécifique.Par exemple, cette fonction peut être croissante ou convexe: ces deux contraintes de forme sont les plus étudiées. Nous étudions en particulier deux estimateurs: un estimateur basé sur des méthodes d'agrégation et l'estimateur des moindres carrés avec une contrainte de forme convexe. Des inégalités d'oracle sont obtenues, et nous construisons aussi des intervalles de confiance honnêtes et adaptatifs.L'agrégation d'estimateurs est le problème suivant. Lorsque plusieurs méthodes sont proposées pour le même problème statistique, comment construire une nouvelle méthode qui soit aussi performante que la meilleure parmi les méthodes proposées? Nous étudierons ce problème dans trois contextes: l'agrégation d'estimateurs de densité, l'agrégation d'estimateurs affines et l'aggrégation sur le chemin de régularisation du Lasso
This PhD thesis studies two fields of Statistics: Aggregation of estimatorsand shape constrained regression.Shape constrained regression studies the regression problem (find a function that approximates well a set of points) with an underlying shape constraint, that is, the function must have a specific "shape". For instance, this function could be nondecreasing of convex: These two shape examples are the most studied. We study two estimators: an estimator based on aggregation methods and the Least Squares estimator with a convex shape constraint. Oracle inequalities are obtained for both estimators, and we construct confidence sets that are adaptive and honest.Aggregation of estimators studies the following problem. If several methods are proposed for the same task, how to construct a new method that mimics the best method among the proposed methods? We will study these problems in three settings: aggregation of density estimators, aggregation of affine estimators and aggregation on the regularization path of the Lasso
46

Bellec, Pierre C. "Sharp oracle inequalities in aggregation and shape restricted regression." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLG001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Deux sujet sont traités dans cette thèse: l'agrégation d'estimateurs et la régression sous contrainte de formes.La régression sous contrainte de forme étudie le problème de régression (trouver la fonction qui représente un nuage de points),avec la contrainte que la fonction en question possède une forme spécifique.Par exemple, cette fonction peut être croissante ou convexe: ces deux contraintes de forme sont les plus étudiées. Nous étudions en particulier deux estimateurs: un estimateur basé sur des méthodes d'agrégation et l'estimateur des moindres carrés avec une contrainte de forme convexe. Des inégalités d'oracle sont obtenues, et nous construisons aussi des intervalles de confiance honnêtes et adaptatifs.L'agrégation d'estimateurs est le problème suivant. Lorsque plusieurs méthodes sont proposées pour le même problème statistique, comment construire une nouvelle méthode qui soit aussi performante que la meilleure parmi les méthodes proposées? Nous étudierons ce problème dans trois contextes: l'agrégation d'estimateurs de densité, l'agrégation d'estimateurs affines et l'aggrégation sur le chemin de régularisation du Lasso
This PhD thesis studies two fields of Statistics: Aggregation of estimatorsand shape constrained regression.Shape constrained regression studies the regression problem (find a function that approximates well a set of points) with an underlying shape constraint, that is, the function must have a specific "shape". For instance, this function could be nondecreasing of convex: These two shape examples are the most studied. We study two estimators: an estimator based on aggregation methods and the Least Squares estimator with a convex shape constraint. Oracle inequalities are obtained for both estimators, and we construct confidence sets that are adaptive and honest.Aggregation of estimators studies the following problem. If several methods are proposed for the same task, how to construct a new method that mimics the best method among the proposed methods? We will study these problems in three settings: aggregation of density estimators, aggregation of affine estimators and aggregation on the regularization path of the Lasso
47

Deschemps, Antonin. "Apprentissage machine et réseaux de convolutions pour une expertise augmentée en dosimétrie biologique." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dosimétrie biologique est la branche de la physique de la santé qui se préoccupe de l’estimation de doses de rayonnement ionisants à partir de biomarqueurs. Dans le procédé standard défini par l’AIEA, la dose est calculée en estimant la fréquence d’apparition de chromosomes dicentriques lors de la métaphase des lymphocytes périphériques. La variabilité morphologique des chromosomes, ainsi que celle des conditions d’acquisition des images rend ce problème de détection d’objets complexe. De plus, l’estimation fiable de cette fréquence nécessite le traitement d’un grand nombre d’image. Étant donné les limites du comptage humain (faible nombre de personnes qualifiées, charge cognitive), l’automatisation est une nécessité dans le contexte d’exposition de masse. Dans ce contexte, l’objectif de cette thèse est de tirer parti des progrès récents en vision par ordinateur (et plus spécifiquement en détection d’objets) apportés par l’apprentissage profond. La contribution principale de ce travail est une preuve de concept pour un modèle de détection de chromosomes dicentriques. Ce système repose sur l’agrégation de modèles pour parvenir à un haut niveau de performance, ainsi qu’a une bonne quantification de son incertitude, une exigence essentielle dans un contexte médical
Biological dosimetry is the branch of health physics dealing with the estimation of ionizing radiation doses from biomarkers. The current gold standard (defined by the IAEA) relies on estimating how frequently dicentric chromosomes appear in peripheral blood lymphocytes. Variations in acquisition conditions and chromosome morphology makes this a challenging object detection problem. Furthermore, the need for an accurate estimation of the average number of dicentric per cell means that a large number of image has to be processed. Human counting is intrinsically limited, as cognitive load is high and the number of specialist insufficient in the context of a large-scale exposition. The main goal of this PhD is to use recent developments in computer vision brought by deep learning, especially for object detection. The main contribution of this thesis is a proof of concept for a dicentric chromosome detection model. This model agregates several Unet models to reach a high level of performance and quantify its prediction uncertainty, which is a stringent requirement in a medical setting
48

Erabit, Nicolas. "Caractérisation expérimentale et modélisation de la dénaturation et de l’agrégation de la beta-lactoglobuline au cours d’un traitement thermique de type industriel." Electronic Thesis or Diss., Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse vise à modéliser la formation d'agrégats de protéines sériques lors d'un traitement thermomécanique en continu (échangeur de chaleur) en intégrant le rôle des caractéristiques physicochimiques (concentration protéique, composition minérale). Cette modélisation s’appuie sur des connaissances issues de la littérature et sur une expérimentation complétant ces connaissances pour le système modèle choisi.Une démarche séquentielle sur deux échelles a été adoptée. A l’échelle laboratoire, on soumet des échantillons à différents traitements thermomécaniques bien contrôlés et de façon quasi homogène sur tout l’échantillon. Ceci constitue une base de données sur laquelle sera développé un modèle de transformation mécanistique expliquant l’agrégation irréversible de la β-lactoglobuline en solution en fonction du triplet temps/température/cisaillement. Cette première étape à l’échelle laboratoire permet donc d’obtenir un modèle pour un profil thermique bien connu mais pas pour un traitement thermique à l’échelle pilote. L'hypothèse est que la dispersion de taille des agrégats pour un traitement thermique en continu est due en partie à la distribution des temps de séjours : les protéines contenues dans les parties de fluides les plus lentes ont plus de temps pour s'agréger. Des essais ont été menés sur un pilote de traitement thermique en continu
This work aims to model the formation of whey protein aggregates during continuous thermo-mechanical treatment (heat exchanger) with integration of the physicochemical properties (protein content and mineral content). This simulation work is supported by knowledge from literature and experimentation carried out in addition with literature.A two-step work was done at two scales. At laboratory scale, the samples were submitted to well controlled and almost homogenous thermo-mechanical treatments. This was used as data base to develop a mechanistic model of transformation for the irreversible aggregation of beta-lactoglobulin in solution in function of time/temperature/shear. This first step allows obtaining a model for one profile but not for a pilot-scale heat treatment. The hypothesis is that the dispersion of aggregate sizes in continuous heat treatment is partly due to distribution of residence times: proteins in the slowest parts of the fluid have more time to aggregate. Experiments were carried out on a continuous pilot of heat treatment
49

Sonet, Virginie. "Les usages sociaux et les logiques économiques de l'audiovisuel sur smartphone." Thesis, Paris 2, 2014. http://www.theses.fr/2014PA020049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’audiovisuel sur smartphone est un phénomène complexe et en construction. La mobilité et l’hybridation caractérisent ce nouveau territoire audiovisuel et cette thèse cherche à comprendre en quoi ces deux dimensions contribuent à la construction des usages sociaux et des logiques économiques de l’audiovisuel sur smartphone. À partir de plusieurs enquêtes qualitatives et d’une observation des offres des chaînes sur ce nouvel écran, ce travail analyse comment les utilisateurs et les acteurs de l’audiovisuel particulièrement les chaînes de télévision se saisissent de ce nouvel écran.Ce territoire audiovisuel est d’abord contextualisé, puis une lecture originale de l’évolution de l’audiovisuel est présentée, au prisme de disruptions d’ordre technologique, économique et d’usage. La construction de la posture scientifique reposant sur une approche interdisciplinaire est ensuite exposée. Dès lors, cette thèse met en évidence que la mobilité participe de l’appropriation du smartphone en tant qu’écran audiovisuel, notamment à travers les dimensions de contexte et de contraintes technologiques, commerciales, sociales. Quant au déploiement des modèles économiques des chaînes de télévision sur cet écran, il est contraint par un environnement technoéconomique imposé par les plateformes mobiles (comme Apple et Google). Avec la dimension d’hybridation, la thèse montre que les usages se construisent dans une logique d’entrelacement des pratiques audiovisuelles et des pratiques de communication et de connexion. Les chaînes de télévision réagissent en proposant des applications enrichies, en se déployant dans les réseaux socionumériques et en développant des dispositifs interactifs entre le smartphone et le téléviseur. Autant de nouvelles modalités d’agrégation susceptibles de drainer des implications économiques défavorables aux chaînes
Watching and delivering video contents on smartphone is a complex phenomenon because it is forming as we investigate it. Both dimensions of mobility and hybridization characterize this new media territory and this thesis explains how their contribution leads to the construction of the social uses and the economic logics. Through several qualitative surveys based on interviews with users and professionals and a long term observation of the TV offers on this new screen, this research analyzes how the users on one hand and the broadcasting industry (TV networks) on the other hand, seize this new screen.This new audiovisual field is put into perspective by drawing up its offers overview and the first observed uses. An original reading of the audiovisual field evolution with the prism of technological, economical and use disruptions is then presented, and the construction of our scientific position is described, by explaining the interdisciplinary approach.Therefore, this research highlights that the mobility contributes to the appropriation of the smartphone as an audiovisual screen, essentially through the dimensions of context, as well as technological, commercial and social constraints. It also analyzes how the techno-economic environment, generated by the mobile platforms (Apple and Google), constrains the deployment of French TV networks’ business models on this new screen. With the dimension of hybridization, this thesis explains that the uses are expanding through the interlacing of communication, connection and audiovisual uses. Therefore, Television Networks try to conquer the attention of smartphone users by providing enhanced applications, by spreading in Social Networking Sites and by developing interactive systems between the smartphone and theTV set. But, these new aggregations often come with adverse economic implications
50

Sebbar, Mehdi. "On unsupervised learning in high dimension." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLG003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire de thèse, nous abordons deux thèmes, le clustering en haute dimension d'une part et l'estimation de densités de mélange d'autre part. Le premier chapitre est une introduction au clustering. Nous y présentons différentes méthodes répandues et nous nous concentrons sur un des principaux modèles de notre travail qui est le mélange de Gaussiennes. Nous abordons aussi les problèmes inhérents à l'estimation en haute dimension et la difficulté d'estimer le nombre de clusters. Nous exposons brièvement ici les notions abordées dans ce manuscrit. Considérons une loi mélange de K Gaussiennes dans R^p. Une des approches courantes pour estimer les paramètres du mélange est d'utiliser l'estimateur du maximum de vraisemblance. Ce problème n'étant pas convexe, on ne peut garantir la convergence des méthodes classiques. Cependant, en exploitant la biconvexité de la log-vraisemblance négative, on peut utiliser la procédure itérative 'Expectation-Maximization' (EM). Malheureusement, cette méthode n'est pas bien adaptée pour relever les défis posés par la grande dimension. Par ailleurs, cette méthode requiert de connaître le nombre de clusters. Le Chapitre 2 présente trois méthodes que nous avons développées pour tenter de résoudre les problèmes décrits précédemment. Les travaux qui y sont exposés n'ont pas fait l'objet de recherches approfondies pour diverses raisons. La première méthode, 'lasso graphique sur des mélanges de Gaussiennes', consiste à estimer les matrices inverses des matrices de covariance dans l'hypothèse où celles-ci sont parcimonieuses. Nous adaptons la méthode du lasso graphique de [Friedman et al., 2007] sur une composante dans le cas d'un mélange et nous évaluons expérimentalement cette méthode. Les deux autres méthodes abordent le problème d'estimation du nombre de clusters dans le mélange. La première est une estimation pénalisée de la matrice des probabilités postérieures dont la composante (i,j) est la probabilité que la i-ème observation soit dans le j-ème cluster. Malheureusement, cette méthode s'est avérée trop coûteuse en complexité. Enfin, la deuxième méthode considérée consiste à pénaliser le vecteur de poids afin de le rendre parcimonieux. Cette méthode montre des résultats prometteurs. Dans le Chapitre 3, nous étudions l'estimateur du maximum de vraisemblance d'une densité de n observations i.i.d. sous l’hypothèse qu'elle est bien approximée par un mélange de plusieurs densités données. Nous nous intéressons aux performances de l'estimateur par rapport à la perte de Kullback-Leibler. Nous établissons des bornes de risque sous la forme d'inégalités d'oracle exactes, que ce soit en probabilité ou en espérance. Nous démontrons à travers ces bornes que, dans le cas du problème d’agrégation convexe, l'estimateur du maximum de vraisemblance atteint la vitesse (log K)/n)^{1/2}, qui est optimale à un terme logarithmique près, lorsque le nombre de composant est plus grand que n^{1/2}. Plus important, sous l’hypothèse supplémentaire que la matrice de Gram des composantes du dictionnaire satisfait la condition de compatibilité, les inégalités d'oracles obtenues donnent la vitesse optimale dans le scénario parcimonieux. En d'autres termes, si le vecteur de poids est (presque) D-parcimonieux, nous obtenons une vitesse (Dlog K)/n. En complément de ces inégalités d'oracle, nous introduisons la notion d’agrégation (presque)-D-parcimonieuse et établissons pour ce type d’agrégation les bornes inférieures correspondantes. Enfin, dans le Chapitre 4, nous proposons un algorithme qui réalise l'agrégation en Kullback-Leibler de composantes d'un dictionnaire telle qu'étudiée dans le Chapitre 3. Nous comparons sa performance avec différentes méthodes. Nous proposons ensuite une méthode pour construire le dictionnaire de densités et l’étudions de manière numérique. Cette thèse a été effectué dans le cadre d’une convention CIFRE avec l’entreprise ARTEFACT
In this thesis, we discuss two topics, high-dimensional clustering on the one hand and estimation of mixing densities on the other. The first chapter is an introduction to clustering. We present various popular methods and we focus on one of the main models of our work which is the mixture of Gaussians. We also discuss the problems with high-dimensional estimation (Section 1.3) and the difficulty of estimating the number of clusters (Section 1.1.4). In what follows, we present briefly the concepts discussed in this manuscript. Consider a mixture of K Gaussians in ℝ^p. One of the common approaches to estimate the parameters is to use the maximum likelihood estimator. Since this problem is not convex, we can not guarantee the convergence of classical methods such as gradient descent or Newton's algorithm. However, by exploiting the biconvexity of the negative log-likelihood, the iterative 'Expectation-Maximization' (EM) procedure described in Section 1.2.1 can be used. Unfortunately, this method is not well suited to meet the challenges posed by the high dimension. In addition, it is necessary to know the number of clusters in order to use it. Chapter 2 presents three methods that we have developed to try to solve the problems described above. The works presented there have not been thoroughly researched for various reasons. The first method that could be called 'graphical lasso on Gaussian mixtures' consists in estimating the inverse matrices of covariance matrices Σ (Section 2.1) in the hypothesis that they are parsimonious. We adapt the graphic lasso method of [Friedman et al., 2007] to a component in the case of a mixture and experimentally evaluate this method. The other two methods address the problem of estimating the number of clusters in the mixture. The first is a penalized estimate of the matrix of posterior probabilities T∈ℝ^{n x K} whose component (i, j) is the probability that the i-th observation is in the j-th cluster. Unfortunately, this method proved to be too expensive in complexity (Section 2.2.1). Finally, the second method considered is to penalize the weight vector π in order to make it parsimonious. This method shows promising results (Section 2.2.2). In Chapter 3, we study the maximum likelihood estimator of density of n i.i.d observations, under the assumption that it is well approximated by a mixture with a large number of components. The main focus is on statistical properties with respect to the Kullback-Leibler loss. We establish risk bounds taking the form of sharp oracle inequalities both in deviation and in expectation. A simple consequence of these bounds is that the maximum likelihood estimator attains the optimal rate ((log K)/n)^{1/2}, up to a possible logarithmic correction, in the problem of convex aggregation when the number K of components is larger than n^{1/2}. More importantly, under the additional assumption that the Gram matrix of the components satisfies the compatibility condition, the obtained oracle inequalities yield the optimal rate in the sparsity scenario. That is, if the weight vector is (nearly) D-sparse, we get the rate (Dlog K)/n. As a natural complement to our oracle inequalities, we introduce the notion of nearly-D-sparse aggregation and establish matching lower bounds for this type of aggregation. Finally, in Chapter 4, we propose an algorithm that performs the Kullback-Leibler aggregation of components of a dictionary as discussed in Chapter 3. We compare its performance with different methods: the kernel density estimator , the 'Adaptive Danzig' estimator, the SPADES and EM estimator with the BIC criterion. We then propose a method to build the dictionary of densities and study it numerically. This thesis was carried out within the framework of a CIFRE agreement with the company ARTEFACT

To the bibliography