Tesi sul tema "Méthodologie de la surface de réponse"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Méthodologie de la surface de réponse.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Méthodologie de la surface de réponse".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Rguig, Mustapha. "Méthodologie des surfaces de réponse pour l'analyse en fiabilité des plates-formes pétrolières offshore fissurées". Nantes, 2005. http://www.theses.fr/2005NANT2044.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Durant les années 70, un grand nombre de structures offshore de type jacket, treillis, composées de joints tubulaires soudés, ont été implantées. Certaines d'entre elles présentent une réserve importante de résistance malgré les défaillances locales observées. L'objectif de ce travail de recherche est l'examen de l'impact des fissures traversantes. L'idée est de développer des surfaces de réponse physiques introduisant le chargement aléatoire de la houle et la géométrie aléatoire de la fissure. On choisit de modéliser au niveau global l'effet d'une fissure traversante en utilisant un critère de type évolution de l'énergie potentielle totale ou évolution du déplacement d'un nœud stratégique de la structure. On s'appuie pour cela sur la méthode des surfaces de réponse en couplant l'analyse mécanique (Rouhan 1999) généralisée en 3D et les sollicitations (Schoefs 1996). Des illustrations sont présentées en s'appuyant sur des structures usuelles de l'industrie pétrolière offshore
The structures built during the Seventies present a significant reserve of resistance in spite of the local failures observed. The objective of this research task is the examination of the impact of the through cracks on metal offshore structures made up of welded tubes. The idea is to model at the total level the effect of a through crack using a criterion of the type evolution of total potential energy or evolution of the displacement of a strategic node of the structure. Indeed, these structures, conceived in the Seventies, are very redundant and profit from a reserve of significant integrity. All the dubious or random sizes, length of crack, loading of swell. . . , are modelled and integrated by approaches of the probabilistic types. One use for that the method of response surfaces by coupling the mechanical analysis (Rouhan 1999) and the requests (Schoefs 1996)
2

Broudiscou, Annie. "Méthodologie de la recherche expérimentale : génération de matrices d'expériences asymétriques à haut degré de saturation: contribution des algorithmes génétiques à la construction de matrices d'expériences optimales". Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La vocation de la methodologie de la recherche experimentale est d'aider l'experimentateur a etablir une strategie de recherche optimale. Dans la plupart des etudes, celui-ci commence par faire la liste de tous les facteurs potentiellement influents sur le phenomene etudie. L'etape de criblage lui permet ensuite de reperer les facteurs reellement actifs. Les facteurs continus ou quantitatifs n'ont alors que deux niveaux; les facteurs discontinus ou qualitatifs par contre, ont autant de niveaux qu'ils ont d'etats. Des facteurs de blocs sont parfois ajoutes pour neutraliser les effets d'une source de variabilite, ils ont egalement un nombre de niveaux variable. Une matrice d'experiences de criblage pour des facteurs ayant differents nombres de niveaux est une matrice d'experiences asymetrique de resolution iii. Ce travail s'articule principalement autour de deux axes. Il explicite, dans une premiere partie, des methodes classiques de construction de ces matrices. L'etude se limite aux matrices de moins de cinquante et une experiences, et seules celles dont le nombre d'experiences est egal ou proche du nombre d'effets a calculer sont abordees. L'application des differentes techniques permet de construire plus de mille cinq cents matrices. Malgre leur nombre, les matrices de criblage repertoriees precedemment ne satisfont pas a toutes les situations experimentales possibles. Afin de repondre aux exigences de l'experimentateur, nous presentons, dans une deuxieme partie, une methode algorithmique de generation de matrices d'experiences de qualite acceptable. Fondee sur un algorithme genetique, cette technique permet non seulement de trouver des matrices d'experiences asymetriques infaisables par les methodes classiques, mais aussi de repondre a une problematique particuliere de l'utilisateur (modele particulier, contraintes sur le domaine experimental. . . )
3

Lepadatu, Daniel. "Optimisation des procédés de mise en forme par approche couplée plans d'expériences, éléments finis et surface de réponse". Phd thesis, Université d'Angers, 2006. http://tel.archives-ouvertes.fr/tel-00338415.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans ce travail nous proposons des stratégies d'optimisation par plans d'expériences numériques pour palier les difficultés rencontrées dans le processus d'optimisation de procédés de mise en forme. Parmi ces difficultés on peut rappeler : le retour élastique durant le pliage, l'usure de la matrice pendant l'extrusion ou la fatigue des outils, la recherche d'une solution globale ou l'échange des données entre l'outil de simulation et l'outil d'optimisation. Compte tenu de la forte non linéarité des phénomènes étudiés, nous avons développé une approche basée sur l'utilisation conjointe de la méthode des plans d'expériences, de la méthodologie de surface de réponse et la méthode des éléments finis, pour optimiser les performances du produit ou du procédé de fabrication. Le caractère numérique des expériences justifie la création et la mise au point d'un outil d'optimisation, afin d'automatiser et de faciliter l'application de la méthodologie de plans d'expériences et celle des stratégies d'optimisation par plans d'expériences à partir de simulations numériques. Il s'agit d'un outil informatique qui permet de déterminer de manière automatique et rapide, l'optimum d'un certain processus, permettant d'obtenir des produits respectant un certain nombre des critères de qualité. Afin de trouver les caractéristiques des processus de fabrication en accord avec la meilleure qualité possible des produits une des stratégies d'optimisation proposée dans ce rapport est basée sur une approche hybride qui utilise la puissance des trois méthodes : surface de réponse, calcul par intervalle et tolérencement mécanique. La validation de cette nouvelle méthode apportera une solution robuste à l'optimisation du procédé d'emboutissage.
4

Karam, Sandrine. "Application de la méthodologie des plans d'expériences et de l'analyse de données à l'optimisation des processus de dépôt". Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/8f5029e5-3ced-4997-973f-2cc455e74bf1/blobholder:0/2004LIMO0044.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Traditionnellement, un chercheur effectue des expériences de manière séquentielle en faisant varier les paramètres les uns après les autres. Cette méthode donne des résultats mais elle est coûteuse en temps et nécessite la réalisation d’un grand nombre d’expériences. Les méthodes d’analyses de données permettent de collecter, de résumer et de présenter des données de façon à en tirer le maximum d’informations pour la suite des expériences. Pour mener une recherche expérimentale planifiée, la méthodologie des plans d’expériences est utilisée. Cette démarche aide l’expérimentateur à structurer sa recherche de manière différente, à valider ses propres hypothèses, à mieux comprendre les phénomènes étudiés et à solutionner les problèmes. L’objectif de cette thèse est de présenter, à travers des exemples d’applications liés à l’élaboration de dépôts, la mise en œuvre et l’intérêt de ces méthodes destinées à tout expérimentateur désirant optimiser l’efficacité de sa recherche expérimentale
Traditionally, a scientist carries out experiments in a sequential way by varying the parameters the ones after the others. This method gives results but is very expensive in time because it inevitably requires the realization of a great number of experiments. This is why it is important to help the scientist to achieve his experiments with data analyses and experimental design methods. Data analysis makes it possible to collect, summarize and present data so as to optimize the way to implement next experiments. By using experimental design, the scientist knows how to plan experiments. This experimental step will help him to structure his research in a different way, to validate his own assumptions, with better understanding the studied phenomena, and to solve the problems. The objective of this thesis is to present, through examples of applications related to the development of deposits, the elaboration and the interest of these methods
5

Le, Thi Tuong. "Purification et propriétés anti-inflammatoires et anti-oxydantes des fractions phénoliques issues de coproduits de production d'isolats protéiques d'oleoproteagineux". Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0270.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le colza et le tournesol sont les plantes oléagineuses les plus cultivées en Europe en général, et en France en particulier. Certains industriels se concentrent actuellement sur le développement de procédés industriels d'extraction/purification des protéines des tourteaux de ces deux végétaux. Ces procédés génèrent des coproduits qui sont des effluents aqueux salins riches en composés phénoliques tels que l'acide cholorgénique (CGA, pour le tournesol) et la sinapine (SP, pour le colza). La capture de ces composés phénoliques qui peuvent agir comme anti-oxydants naturels et/ou anti-inflammatoires en nutrition – santé constitue donc une voie de valorisation prometteuse. Les principaux objectifs de ce travail étaient les suivants 1) caractériser et identifier les composés phénoliques des sous-produits d'isolat de protéines à partir de la SFM et de la RSM ; 2) choisir les meilleures résines macroporeuses et étudier le mécanisme d'adsorption des composés phénoliques; 3) optimiser les conditions dans la colonne d’adsorption des composés phénoliques; et 4) évaluer les activités biologiques des fractions phénoliques obtenues, notamment les propriétés antioxydantes et anti-inflammatoires. Par différentes méthodes analytiques, nous avons déterminé que les effluents liquides étaient constitués de composés phénoliques, d'acides aminés, d'hydrates de carbone et de sel, qui ont un poids moléculaire faible et qui peuvent facilement passer à travers une membrane UF/DF. Tous les composés phénoliques ont été identifiés par analyse HPLC et HPLC-ESI-MS, en comparaison avec des standards. Le CGA est le principal composé phénolique des effluents tournesol. Le principal composé phénolique des effluents colza est la SP. Contrairement au tournesol, ils contiennent aussi de nombreux autres composés mineurs. L'adsorption/désorption des composés phénoliques de tournesol et de colza a été évaluée à l'aide de différentes résines macroporeuses, notamment XAD4, XAD7, XAD16, XAD1180 et HP20. Nous avons constaté que tous les composés phénoliques s'adsorbaient facilement sur les résines. Les résines XAD7 et XAD16 ont montré les meilleures propriétés d'adsorption/désorption dans les effluents liquides de tournesol et de colza, respectivement. Les résultats ont montré que l'adsorption de tous les composés phénoliques suit un modèle. Les isothermes d’adsorption suivent un modèle de Langmuir. Selon les paramètres thermodynamiques déterminés, le processus d'adsorption, est dans tous les cas physique et est exothermique. La condition optimale pour l'adsorption sur colonne a été déterminée sur les résines sélectionnées par planification expérimentale et optimisation multicritère. Une méthodologie d'optimisation multicritères basée sur des plans d'expériences a montré que les conditions optimales étaient un débit d'adsorption de 15 BV/h à un pH de 2,7 pour le CGA de la SFM. De l’autre côté, un débit d'adsorption de 13,3 BV/h et un pH compris entre 2 et 5 étaient les conditions optimales pour la sinapine du RSM. Des solutions d’éthanol (50% (v/v) pour l'acide chlorogénique, 70% (v/v) pour la sinapine ont été utilisées pour la desorption. Ces approches ont permis de produire avec succès les fractions phénoliques pour des activités biologiques telles que l'antioxydation et l'anti-inflammation. La fraction phénolique a montré une capacité antioxydante plus élevée que la vitamine C dans le test ABTS (IC50/fractions phénoliques < IC50 vitamine C, p < 0,05). Il a en outre été discuté si les fractions phénoliques obtenues dans le cadre de ce projet présentaient également un effet inflammatoire. La fraction tournesol (CGA) a efficacement inhibé la production de TNF-α, qui est un marqueur pro-inflammatoire lorsqu'un échantillon est traité avec du LPS. Cependant, les fractions colza n'étaient pas efficaces contre les médiateurs pro-inflammatoires. Aucune des fractions n’a montré de cytotoxicité
Rapeseed and sunflower are the most cultivated oilseed plants in Europe in general, and in France in particular. Some industrialists are currently focusing on the development of industrial processes for the extraction/purification of proteins from the oil cakes of these two plants. These processes generate co-products which are saline aqueous effluents rich in phenolic compounds such as cholorgenic acid (CGA, for sunflower) and sinapine (SP, for rapeseed). The capture of these phenolic compounds, which can act as natural antioxidants and/or anti-inflammatory agents in nutrition and health, is therefore a promising way of valorization. The main objectives of this work were: 1) to characterize and identify the phenolic compounds of protein isolate by-products from SFM and RSM; 2) to select the best macroporous resins and to study the adsorption mechanism of phenolic compounds; 3) to optimize the conditions in the phenolic compounds adsorption column; and 4) to evaluate the biological activities of the obtained phenolic fractions, especially the antioxidant and anti-inflammatory properties.By different analytical methods, we determined that the liquid effluents consisted of phenolic compounds, amino acids, carbohydrates, and salt, which have a low molecular weight and can easily pass through a UF/DF membrane. All phenolic compounds were identified by HPLC and HPLC-ESI-MS analysis in comparison with standards. CGA is the main phenolic compound in the sunflower effluent. The main phenolic compound of rapeseed effluents is MS. Unlike sunflower, they also contain many other minor compounds. The adsorption/desorption of sunflower and rapeseed phenolic compounds was evaluated using different macroporous resins including XAD4, XAD7, XAD16, XAD1180 and HP20. We found that all phenolic compounds adsorbed readily onto the resins. XAD7 and XAD16 resins showed the best adsorption/desorption properties in sunflower and rapeseed liquid effluents, respectively. The results showed that the adsorption of all phenolic compounds follows a Langmuir model. According to the determined thermodynamic parameters, the adsorption process, is in all cases physical and is exothermic.The optimal condition for column adsorption was determined on the selected resins by experimental planning and multicriteria optimization. A multicriteria optimization methodology based on design of experiments showed the optimal conditions were adsorption flow rate of 15 BV/h at pH 2.7 for CGA from SFM. Meanwhile, adsorption flow rate of 13.3 BV/h and at pH ranging from 2 to 5 were the optimal conditions for sinapine from RSM. Ethanol solutions 50% (v/v) for chlorogenic acid, 70% (v/v) for sinapine were used for desorption.These approaches successfully produced the phenolic fractions for biological activities such as antioxidation and anti-inflammation. Phenolic fraction showed a higher antioxidant capacity than vitamin C in DPPH and ABTS assays (IC50/phenolic fractions < IC50 vitamin C, p < 0.05. In addition, it was discussed whether the phenolic fractions obtained in this project also showed an inflammatory effect. The sunflower fraction (CGA) effectively inhibited the production of TNF-α, which is a pro-inflammatory marker when a sample is treated with LPS. However, the rapeseed fractions were not effective against proinflammatory mediators. None of the fractions showed cytotoxicity
6

VIVIER, Stéphane. "Stratégies d'optimisation par la méthode des Plans d'Expériences, et Application aux dispositifs électrotechniques modélisés par Eléments Finis". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2002. http://tel.archives-ouvertes.fr/tel-00005822.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire portent sur l'application de la Méthode des Plans d'Expériences (MPE) à l'étude et à l'optimisation de dispositifs électrotechniques. La modélisation éléments finis est l'outil d'analyse privilégié, fournissant les prototypes virtuels des dispositifs étudiés. La MPE, introduite dans le premier chapitre, est un ensemble homogène d'outils et de méthodes algébro-statistiques visant à établir et à analyser les relations existant entre les grandeurs étudiées (réponses) et leurs sources de variations supposées (facteurs). Cette analyse peut être qualitative afin de déterminer des facteurs influents, ou bien quantitative pour établir les variations des réponses en fonction des facteurs significatifs. L'opération de modélisation est toujours fondamentale. Elle est opérée à l'issue de séries de simulations définies par les plans d'expériences (PE). Le deuxième chapitre présente plusieurs algorithmes utilisant les PE de façon exclusive, pour la modélisation des réponses ainsi que pour la recherche des conditions optimales. Des particularités apparaissent alors, telle que la possibilité de partager certaines expériences par plusieurs plans. Le caractère virtuel des expériences justifie la création et la mise au point d'un superviseur d'optimisation, afin d'automatiser et de faciliter l'application de la MPE et celle des stratégies d'optimisation par PE à partir de simulations informatiques. Le troisième chapitre présente les principales caractéristiques de ce nouvel outil : Sophemis. Enfin, le quatrième chapitre met en œuvre l'ensemble de ces développements, en appliquant les algorithmes d'optimisation présentés, à l'étude de trois systèmes électrotechniques. Le premier est un moteur brushless à aimants permanents, le second correspond au cas test n°22 du T.E.A.M. Workshop, et le dernier se rapporte à un frein linéaire à courants de Foucault pour usage ferroviaire.
7

Pambou-Tobi, Nadia. "Influence des conditions de friture profonde sur les propriétés physicochimiques de la banane plantain Musa AAB « harton » : étude du vieillissement des huiles et modélisation des transferts de matière au cours du procédé". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0063/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La banane plantain est un fruit couramment consommé au Congo-Brazzaville sous la forme cuite en tant qu’accompagnement. Le procédé de friture profonde de la banane plantain est une pratique très répandue, souvent mal maitrisé, compte tenu de l’utilisation prolongée des huiles de friture entrainant la formation de composés néfastes à la santé. En effet, depuis un certain nombre d’années, la consommation d’huiles locales (soja, palme) et leurs dégradations après chauffage constituent une des préoccupations principales pour la sécurité sanitaire du consommateur. Les objectifs de cette thèse consistaient à étudier l’influence du procédé de la friture profonde appliqué à la banane plantain Musa AAB, variété « Harton » au stade de maturité 7, consommée sous la forme de disque. Nous avons dans un premier temps appliqué la méthodologie des surfaces de réponse au procédé de friture profonde, afin de déterminer l’influence de trois paramètres (temps / température / quantité) sur différentes réponses (couleur, dureté, teneurs en huile et en eau des produits frits) en fonction de la nature de l’huile utilisée (soja, palme, huile Frial). Une fois les conditions optimales obtenues sur la banane plantain en condition domestique, l’étude s’est focalisée sur l’évolution de la stabilité des huiles de friture par le suivi des paramètres physico-chimiques de dégradation de ces dernières (composés polaires totaux, acides gras libres, composés primaires et secondaires d’oxydation). Des analyses de la couleur, du point de cristallisation et de la viscosité sont venues compléter l’étude et ont permis d’établir la durée d’utilisation optimale de ces huiles en fonction de la quantité de banane plantain à frire. Enfin, les mécanismes de transfert d’eau et d’absorption d’huile dans la matrice ont été étudiés et modélisés en fonction de la température, de l’épaisseur et du temps d’immersion
Plantain is a fruit commonly consumed in Congo - Brazzaville in its cooked form, as an accompaniment. The process of deep frying plantain is a widespread practice, often poorly mastered, given the prolonged use of frying oils, leading to the formation of compounds harmful to health. Indeed, for a number of years, the consumption of local oils (soybean, palm) and their degradation after heating are cause of major concern for consumer safety. The objectives of this study were to investigate the influences of the deep frying process applied on the Musa AAB plantain of "harton" variety, maturity level 7, as consumed in sliced form. We initially applied response surface methodology (RSM) to the deep frying process to determine the influence of three parameters (time / temperature / quantity) on different responses (color, hardness, oil uptake and water content) according to the type of oil used (soybean, palm, Frial oils). Once optimal conditions were obtained from the plantain in domestic conditions, the study focused on the evolution of frying oil stability, by monitoring physicochemical parameters of the degradation of the aforementioned (total polar compounds, free fatty acids, primary and secondary oxidation products). Analyses of color, crystallization point and viscosity, were added to the study and helped establish the optimal duration of use for these oils depending on the quantity of plantains fried. Lastly, the mechanisms of water transfer and oil uptake in the matrix has been studied and modeled according to temperature, thickness and immersion time
8

Roche, Angelina. "Modélisation statistique pour données fonctionnelles : approches non-asymptotiques et méthodes adaptatives". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2014. http://tel.archives-ouvertes.fr/tel-01023919.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objet principal de cette thèse est de développer des estimateurs adaptatifs en statistique pour données fonctionnelles. Dans une première partie, nous nous intéressons au modèle linéaire fonctionnel et nous définissons un critère de sélection de la dimension pour des estimateurs par projection définis sur des bases fixe ou aléatoire. Les estimateurs obtenus vérifient une inégalité de type oracle et atteignent la vitesse de convergence minimax pour le risque lié à l'erreur de prédiction. Pour les estimateurs définis sur une collection de modèles aléatoires, des outils de théorie de la perturbation ont été utilisés pour contrôler les projecteurs aléatoires de manière non-asymptotique. D'un point de vue numérique, cette méthode de sélection de la dimension est plus rapide et plus stable que les méthodes usuelles de validation croisée. Dans une seconde partie, nous proposons un critère de sélection de fenêtre inspiré des travaux de Goldenshluger et Lepski, pour des estimateurs à noyau de la fonction de répartition conditionnelle lorsque la covariable est fonctionnelle. Le risque de l'estimateur obtenu est majoré de manière non-asymptotique. Des bornes inférieures sont prouvées ce qui nous permet d'établir que notre estimateur atteint la vitesse de convergence minimax, à une perte logarithmique près. Dans une dernière partie, nous proposons une extension au cadre fonctionnel de la méthodologie des surfaces de réponse, très utilisée dans l'industrie. Ce travail est motivé par une application à la sûreté nucléaire.
9

Manzon, Diane. "Développement de nouveaux outils en plans d'expériences adaptés à l'approche quality by design (QbD) dans un contexte biologique". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0223.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’approche quality by design (QbD) est un concept récent initié par le contrôle qualité qui a conduit à de nouvelles exigences de la part des autorités règlementaires, en particulier dans l'industrie pharmaceutique. Parmi celles-ci, la directive ICHQ8 explique que la qualité ne doit pas être testée sur les produits finis mais doit être intégrée tout au long, de la conception au produit fini. Cette approche se caractérise par différentes étapes dont l’une consiste à évaluer les risques, ce qui revient principalement à identifier les paramètres critiques dans un procédé ou une formulation. Pour cela, des expérimentations doivent être menées et des plans d’expériences adéquats vont permettre de modéliser les phénomènes étudiés pour ensuite représenter des surfaces de réponse dans l’espace expérimental à explorer. Dans cet espace, la Food and Drug Administration recommande de délimiter un sous-espace, appelé "Design Space", caractérisé par une certaine probabilité que les paramètres de sortie respectent les spécifications du cahier des charges. Ce Design Space a généralement une forme géométrique quelconque, ce qui signifie que la plage de variation acceptable d’un paramètre va dépendre de la valeur d’un autre paramètre. Pour remédier à cette contrainte et ainsi définir des "Proven Acceptable Independent Range" pour chaque paramètre étudié, nous avons utilisé et adapté différentes méthodes. Leurs performances respectives, quant à la définition de domaines de variation acceptables pour chaque paramètre indépendamment, ont été testées sur différents cas d’étude
The quality by design (QbD) approach is a recent concept initiated by quality control which has led to new requirements from regulatory authorities, particularly in the pharmaceutical industry. Among these, the guideline ICHQ8 explains that quality should not be tested on finished products but should be integrated throughout, from design to finished product. This approach is characterised by different steps, one of which is risk assessment, which mainly involves identifying the critical parameters in a process or formulation. To do this, experiments must be carried out and suitable experimental designs will enable the phenomena studied to be modelled and then represent response surfaces in the experimental space to be explored. In this space, the Food and Drug Administration recommends delimiting a sub-space, called "Design Space", characterised by a certain probability that the output parameters comply with the specifications. This Design Space usually has any geometric shape, which means that the acceptable variation range of a parameter will depend on the value of another parameter. To overcome this constraint and thus define "Proven Acceptable Independent Range" for each parameter studied, we have used and adapted different methods. Their respective performance, in terms of defining acceptable variation range for each parameter independently, has been tested in different case studies
10

Malbert, Yannick. "Flavonoid glucodiversification with engineered sucrose-active enzymes". Thesis, Toulouse, INSA, 2014. http://www.theses.fr/2014ISAT0038/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les flavonoïdes glycosylés sont des métabolites secondaires d’origine végétale, qui présentent de nombreuses propriétés physico-chimiques et biologiques intéressantes pour des applications industrielles. La glycosylation accroît généralement la solubilité de ces flavonoïdes mais leurs faibles niveaux de production dans les plantes limitent leur disponibilité. Ces travaux de thèse portent donc sur le développement de nouvelles voies de gluco-diversification des flavonoïdes naturels, en mettant à profit l’ingénierie des protéines. Deux transglucosylases recombinantes, structurellement et biochimiquement caractérisées, l'amylosaccharase de Neisseria polysaccharea et la glucane-saccharase de branchement α-(1→2), forme tronquée de la dextran-saccharase de L. Mesenteroides NRRL B-1299, ont été sélectionnées pour la biosynthèse de nouveaux flavonoïdes, possédant des motifs originaux d’α-glycosylation, et potentiellement une solubilité accrue dans l'eau. Dans un premier temps, une librairie de petite taille de mutants de l’amylosaccharase, ciblée sur le site de liaison à l’accepteur, à été criblée en présence de saccharose (donneur d’unité glycosyl) et de lutéoline comme accepteur. Une méthode de screening a donc été développée, et a permis d’isoler des mutants améliorés pour la synthèse de nouveaux glucosides de lutéoline, jusqu’à 17000 fois plus soluble dans l’eau que la lutéoline aglycon. Afin de glucosyler d’autres flavonoïdes, la glucane-saccharase de branchement α-(1→2), a été préférentiellement sélectionnée. Des plans expérimentaux alliés à une méthodologie en surface de réponse ont été réalisés pour optimiser la production de l’enzyme sous forme soluble et éviter la formation de corps d’inclusion. Cinq paramètres ont été ainsi analysés : le temps de culture, la température, et les concentrations en glycérol, lactose (inducteur) et glucose (répresseur). En appliquant les conditions optimales prédites, 5740 U.L-1 de culture d’enzyme soluble ont été produites en microplaques, alors qu’aucune activité n’était retrouvée dans la fraction soluble, lors de l’utilisation de la méthode de production précédemment utilisée. Finalement, Une approche de modélisation moléculaire, structurellement guidés par l’arrimage de flavonoïdes monoglucosylés dans le site actif de l’enzyme, a permis d’identifier des cibles de mutagenèse et de générer des libraries de quelques milliers de variants. Une méthode rapide de criblage sur milieu solide, basée sur la visualisation colorimétrique d’un changement de pH, a été mise au point. Les mutants encore actifs sur saccharose ont été sélectionnés puis analysés sur leur capacités à glucosyler la quercétine et la diosmétine. Une petite série de 23 mutants a ainsi été retenue comme plate-forme d’enzymes améliorées dédiées à la glucosylation de flavonoïdes et a été évalués pour la glycosylation de six flavonoïdes distincts. La promiscuité, remarquablement générée dans cette plateforme, à permis d’isoler quelques mutants beaucoup plus efficaces que l’enzyme sauvage, produisant des motifs de glucosylation différents et fournissant des informations intéressante pour le design et l’amélioration des outils enzymatiques de glucosylation des flavonoïdes
Flavonoid glycosides are natural plant secondary metabolites exhibiting many physicochemical and biological properties. Glycosylation usually improves flavonoid solubility but access to flavonoid glycosides is limited by their low production levels in plants. In this thesis work, the focus was placed on the development of new glucodiversification routes of natural flavonoids by taking advantage of protein engineering. Two biochemically and structurally characterized recombinant transglucosylases, the amylosucrase from Neisseria polysaccharea and the α-(1→2) branching sucrase, a truncated form of the dextransucrase from L. Mesenteroides NRRL B-1299, were selected to attempt glucosylation of different flavonoids, synthesize new α-glucoside derivatives with original patterns of glucosylation and hopefully improved their water-solubility. First, a small-size library of amylosucrase variants showing mutations in their acceptor binding site was screened in the presence of sucrose (glucosyl donor) and luteolin acceptor. A screening procedure was developed. It allowed isolating several mutants improved for luteolin glucosylation and synthesizing of novel luteolin glucosides, which exhibited up to a 17,000-fold increase of solubility in water. To attempt glucosylation of other types of flavonoids, the α-(1→2) branching sucrase, naturally designed for acceptor reaction, was preferred. Experimental design and Response Surface Methodology were first used to optimize the production of soluble enzyme and avoid inclusion body formation. Five parameters were included in the design: culture duration, temperature and concentrations of glycerol, lactose inducer and glucose repressor. Using the predicted optimal conditions, 5740 U. L-1of culture of soluble enzyme were obtained in microtiter plates, while no activity was obtained in the soluble fraction when using the previously reported method of production. A structurally-guided approach, based on flavonoids monoglucosides docking in the enzyme active site, was then applied to identify mutagenesis targets and generate libraries of several thousand variants. They were screened using a rapid pH-based screening assay, implemented for this purpose. This allowed sorting out mutants still active on sucrose that were subsequently assayed for both quercetin and diosmetin glucosylation. A small set of 23 variants, constituting a platform of enzymes improved for the glucosylation of these two flavonoids was retained and evaluated for the glucosylation of a six distinct flavonoids. Remarkably, the promiscuity generated in this platform allowed isolating several variants much more efficient than the wild-type enzyme. They produced different glucosylation patterns, and provided valuable information to further design and improve flavonoid glucosylation enzymatic tools
11

Ezeddini, Sonia. "Optimisation de l'usinage par le procédé d'électroérosion à fil des alliages de titane et des matériaux composites à base de titane appliqués à l'aéronautique". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC105.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’usinage par électroérosion est un procédé d’enlèvement de matière par fusion, vaporisation et érosion, réservé aux matériaux conducteurs et semi-conducteurs.Il peut être utilisé pour usiner les métaux et alliages, les aciers trempés, les alliages céramiques, les carbures métalliques, certaines céramiques et même des matériaux plus durs tels que le diamant polycristallin. La pièce ainsi chauffée voit ses caractéristiques mécaniques chuter et modifier, ce qui augmente son usinabilité. Les travaux réalisés ont porté sur l'influence de l'usinage par électroérosion à fil sur; l'intégrité de surface, l'usinabilité, la productivité et la précision de procédé, de plusieurs matériaux, tels que, le titane pur, l'alliage de titane Ti-6Al-4V, le composite intermétallique à base Ti-Al, le composite Ti17 et le composite Ti6242.En usinage par électro-érosion à fil, et plus précisément en finition, le procédé est caractérisé par un débit de matière, une largeur de kerf, un durcissement superficiel, une zone affectée thermiquement et un état de surface variant en fonction de plusieurs paramètres tels que, le courant de décharge, le temps d’impulsion, la tension d’amorçage, la vitesse de coupe, la pression d'injection de lubrifiant et la tension de fil.Toutefois, il s’agit d’une étude d’optimisation et de modélisation empirique des conditions de coupe des matériaux composites à base métallique et des alliages de titane, afin de maitriser et d'améliorer l'intégrité de surface usinée, d'augmenter la productivité et de perfectionner la précision du procédé. Par la suite, atteindre les exigences de la qualité et de la sûreté de fonctionnement des pièces aéronautiques.Dans cette étude, on a utilisé des méthodes de type Plan d'expériences, méthode de Taguchi et la Méthodologie des surfaces de réponses pour le calage et le contrôle des paramètres de l’usinage par électroérosion à fil, et ses conditions opératoires
EDM machining is a process for the removal of material by melting, spraying and erosion, which is reserved for conductive and semiconductor materials.It can be used for machining metals and alloys, hardened steels, ceramic alloys, metal carbides, some ceramics and even harder materials such as polycrystalline diamond. The heated part has its mechanical characteristics drop, which increases its machinability. The work carried out focused on the influence of WEDM machining on surface integrity, machinability, productivity and process precision, of several materials: pure titanium, Ti6Al4V alloy, composite intermetallicTi-Al based, Ti17 composite and Ti6242 composite.In ripping, and more precisely in finishing, the process is characterized by a flow of material,kerf width, surface hardening, heat affected zone and surface condition varying with discharge current, pulse time and voltage, cutting speed, lubricant injection pressure and wire tension.In fact, the machining conditions of metal-based composite materials and titanium alloys have been modeled and optimized to improve machined surface integrity, increase productivity, and improve process accuracy. Subsequently, meet the quality and safety requirements of aeronautical parts.Methods such as Experimental Design, Taguchi and Surface of Response were used for calibration and process control parameters and operating conditions
12

Safont, Ophélie. "Méthodologie de dimensionnement de tubes en dynamique". Thesis, Orléans, 2011. http://www.theses.fr/2011ORLE2043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Selon les normes actuelles, les tubes d'arme sont conçus pour résister à la pression des gaz en utilisant les équations de la statique des milieux continus. Mais lors des tirs, les chargements auquel est soumis le tube sont extrêmement rapides, de l'ordre de quelques millisecondes. En effet, le projectile est poussé à travers le tube par la pression des gaz, à ce déplacement est associé la rotation du projectile provoquée par les rayures internes du tube. Le projectile est en contact avec le tube par sa ceinture qui assure une parfaite étanchéité des gaz par son diamètre légèrement supérieur à celui du tube. Ainsi des contraintes dynamiques sont générées par la pression des gaz et par le forcement de la munition. Le but de ces travaux est d'étudier les contraintes dans le tube lors des tirs. Afin d'évaluer les différents phénomènes, dans une première partie, de nombreux essais ont été réalisés sur des armes de moyen calibre. Ces essais ont permis de constituer une base de données sur les déformations circonférentielles du tube. Dans un second temps, un modèle par éléments finis a été développé à l'aide du logiciel LS-Dyna. Le front de pression et le projectile avec sa ceinture ont été simulés. Un modèle tridimensionnel a été choisi afin d'évaluer les contraintes dans le rayage du tube, zones de concentration de contraintes. La corrélation entre les essais et les résultats de calcul est excellente. En effet le pic de déformation dynamique du tube mesuré est très bien prédit par le calcul. Pour déterminer l'influence de ce chargement dynamique, un calcul de durée de vie a été réalisé. Les résultats montrent la nécessité de prendre en compte dans le dimensionnement des tubes d'arme : la pression des gaz et l'action du projectile sur le tube
According to current standards, gun barrels are designed to resist the maximum firing pressure using static, continuous equations. But during the firings events, complex high speed loads and structural responses arised over very short times. The projectile is pushed towards the tube by the gas pressure, morover the engraving of the tube gives a rotational movement to the ammunition. The contact between the tube and the projectile is ensured by a band or obturator. This obturator had a diameter which is superior to the tube's calibre. Very high stresses are generated during the firing, due to gas pressure and the forcing action of the projectile. The aim of this work was to study the stresses in the tube durings firings. To evaluate firings phenomena, in a first part, many tests were made on medium calibre guns using various configurations. Circumferential strain measurements were obtained. In a second time, a finite element model was developed using the commercial code LS-Dyna. The moving pressure front and the projectile with its obturator were simulated. Three dimensional modeling was chosen in order to evaluate the stresses in the tube rifling where stresses concentration were located. The numerical prediction of the peak of strain measured when the projectile passed the strain gages were excellent. Experiments and calculations showed a peak of strains which was not taken into account in tubes design. To evaluate the impact of this phenomenom, a fatigue life-time study was carried on. The results demonstrated that gas pressure and dynamic coupled actions must all be taken into account in the fatigue design of gun tubes
13

Guillemoteau, Julien. "Méthodologie d'interprétation en électromagnétisme aéroporté". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00823207.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse apporte des éléments méthodologiques pour l'interprétation rapide de données électromagnétiques transitoires (TEM) aéroportées. Dans un premier temps, nous nous sommes intéressés au problème de l'inversion 1D qui est, à ce jour, un traitement standard. Nous nous sommes ensuite focalisés sur le problème de l'inversion 2D rapide. En nous basant sur les résultats de modélisations numériques, nous proposons un modèle empirique de sensibilité pour effectuer une inversion 2D rapide. Les tests effectués sur des données synthétiques et réelles s'avèrent très prometteurs. Ensuite, nous étudions analytiquement l'effet de la topographie. Pour un demi-espace homogène incliné, nous montrons que la direction des courants induits dans le sous-sol dépend de l'angle de l'interface air/sol. Nous proposons alors une méthode pour prendre en compte cet effet. Enfin, nous testons nos méthodes de traitement sur des données VTEM acquises dans le bassin de Franceville au Gabon.
14

Benaben, Anne-Lise. "Méthodologie d'identification et d'évaluation de la sûreté de fonctionnement en phase de réponse à appel d'offre". Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT018H/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sûreté de fonctionnement (SdF) des produits, processus et services est une préoccupation permanente de tous les acteurs industriels. C'est le cas notamment dans le secteur automobile à l'exemple des équipementiers confrontés à des clients de plus en plus exigeants en matière de sûreté de fonctionnement. Jusqu'alors uniquement intéressé par les résultats, le client requiert aujourd'hui, dès les négociations couplées à l'appel d'offre (AO), une information précise sur la démarche même que le fournisseur prévoit de mettre en place pour satisfaire aux exigences SdF. Conscients de ces nouveaux besoins, nous nous sommes intéressés à la problématique d'identification de la "dimension SdF" du produit au stade de l'AO et à l'évaluation de l'impact économique de son intégration sur le développement futur du produit. Les conséquences de la prise en compte de la SdF sont doubles puisqu'elles concernent à la fois le produit qui voit sa robustesse optimisée mais aussi la démarche d'analyse permettant de dimensionner les solutions appropriées. Dans l'objectif de répondre à la problématique, nous avons proposé une organisation du processus de réponse à appel d'offre en différentes étapes instrumentées allant de l'identification des éléments relatifs à la SdF dans les documents clients fournis pour l'AO à la définition et à l'évaluation de l'impact SdF
Products Dependability, process and services is a major and permanent topic for industrial actors and especially in automotive industry, where products suppliers are faced to customers more and more aware about dependability. Until now, Customers was only interested about results, they request today, in bid process timeframe, informations about processes put in place in order to reach dependability objectives. Taking these new requirements into accounts, we have focused our work on dependability identification during bid process and the evaluation its cost impact on development. Taking dependability into account allow to increase product robustness but also to make better design choice in term of dependability. Thus, in order to reach this objective, we propose a step by step process for bid phases from dependability topics identification to cost impact
15

Monceaux, Laura. "Adaptation du niveau d'analyse des interventions dans un dialogue : application à un système de question-réponse". Paris 11, 2002. http://www.theses.fr/2002PA112291.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Face à la diversité des types de dialogues mis en oeuvre de nos jours, nous avons étudié comment adapter, de manière générique, le niveau d'analyse des interventions d'un utilisateur. L'analyse par mots clés prônée par les systèmes de dialogues spécifiques (relatifs à une tâche particulière) est inadéquate pour traiter de telles interventions, car on ne peut vraisemblablement pas représenter toutes les connaissances nécessaires et résoudre les conflits liés à cette diversité. Nous avons donc développé une analyse des interventions, indépendante de leurs domaines et fondée sur leur forme syntaxique. Pour ce faire, nous avons été confrontés au problème du choix d'un analyseur syntaxique. Pour le résoudre, nous avons étudié les différents analyseurs syntaxiques existants en réalisant une classification selon leurs capacités, puis nous avons développé une procédure d'évaluation de ces analyseurs qui fait à l'heure actuelle défaut pour le français. Suite à cette évaluation, il nous a paru intéressant de développer un algorithme de compromis entre plusieurs analyses afin de retourner l'analyse la plus plausible. Celui-ci nous permettra non seulement d'utiliser les capacités de chaque analyseur mais également de quantifier chaque information retournée par un taux de confiance. A partir de la syntaxe des interventions et de connaissances sémantiques issues de la base lexicale Word net (synonymie, hyperonyme. . . ), nous avons développé un système d'analyse permettant d'étudier l'intention sous-jacente de l'intervention et son contenu propositionnel. Plus particulièrement, nous nous sommes intéressés aux interventions de demande d'informations dont le contenu propositionnel repose sur l'identification du type attendu de la réponse et de l'objet sur lequel porte la question. Pour évaluer l'efficacité de ces critères, cette analyse a été intégrée dans le système de question-réponse développé dans le groupe LIR
Due to the variety of dialogue types, we studied how to adapt, in a generic way, the level of user interventions analysis. An analysis by keywords, recommended by systems of specific dialogues (relative to a particular task) is inadequate to handle such interventions, because therefore, it is impossible to represent all the world knowledge and solve the conflicts arising from this variety. We developed an analysis of the interventions, independent from their domains and based on the syntax interventions. In so doing, we were confronted with the choice of syntactic analyzer. To solve it, we studied the various existing syntactic parsers by constructing a classification according to their capacities, followed by the development of an evaluation protocol of these analyzers for French. Further to this evaluation, it appeared interesting to develop an algorithm of compromise between several analyses to return the most plausible analysis. This will allow us not only to use the capacities of every analyzes but also to quantify every information returned by a confidence rate. From the intervention's syntax and the semantic knowledge provided by the lexical base WordNet (synonym, hyperonym), we developed a system to extract the intervention's intention and its propositional contents. Particularly, we were interested in the question interventions : the propositional contents rely upon the extraction of the answer type and of the object of the question. To estimate the efficiency of these criteria, this analysis was integrated into the question-answering system developed in the LIR group
16

Eckert, Laurent. "La méta-régression comme méthodologie de comparaisons indirectes : une réponse aux éxigences contemporaines de l'évaluation du médicament". Paris 11, 2007. http://www.theses.fr/2007PA11T029.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Michel, Laura. "Méthodologie d’analyse structurelle et de restauration d’oeuvres sculptées". Thesis, Orléans, 2013. http://www.theses.fr/2013ORLE2068/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Actuellement, la restauration des oeuvres d’art, notamment des statues fracturées, repose sur des techniqueséprouvées, mais empiriques. Les statues endommagées comportent souvent des parties brisées. Leur restaurationconsiste la plupart du temps à les rassembler. Ainsi apparait la nécessité de prendre en compte lespropriétés mécaniques des interfaces entre les différentes parties brisées, ce qui permet de limiter l’ampleur desréparations et ainsi, de mieux conserver l’intégrité de l’oeuvre. Par ailleurs, les techniques numériques d’acquisition3D font leur entrée au service de la conservation du patrimoine. Cette thèse propose une méthodologiecapable d’utiliser des données issues d’une acquisition 3D pour simuler les opérations de restauration et leurseffets sur la structure de l’oeuvre. Les processus de restauration peuvent ainsi être testés et optimisés.Un scanner laser est utilisé pour l’acquisition de la géométrie des oeuvres, ce qui nous permet de reconstruireun modèle 3D pour la simulation numérique. Les calculs sont menés dans le cadre de la mécanique des milieuxcontinus déformables avec FLAC3D. Pour vérifier tous les points clés garantissant la stabilité mécanique, lecomportement des éléments de renforts et celui des interfaces entre les blocs ont été considérés. À partirdes résultats de ces études, une critique des stratégies de restauration mises en oeuvre ou envisageables estproposée.De plus, plusieurs méthodes de caractérisation visant à retrouver la provenance du matériau et/ou estimerles propriétés mécaniques de l’oeuvre sont proposées : caractérisations physico-chimiques et minéralogiques,essais non destructifs et destructifs. Une campagne expérimentale visant à caractériser le comportement desfractures en contact frottant avec acquisition de l’état de surface a été réalisée. Une analyse des corrélationsentre les propriétés mécaniques et morphologique des interfaces est ensuite élaborée. Enfin nous proposonsdes modèles prédictifs construits par régressions linéaires multiples et multivariées. Cette étude permet desimuler le comportement d’une oeuvre fracturée
Currently, the artworks restoration, including broken statues, are based on proven but empirical techniques. Damaged statues often have broken parts. Restoration mainly consists in joining these parts. Thus appears the necessity of taking into account the interfaces mechanical properties between the different broken parts, reducing thereby the extent of repairs and thus better maintain the integrity of the work. Beside this, digital 3D acquisition techniques become more and more popular among the cultural heritage community. This thesis proposes a methodology able to use 3D acquisition datas to simulate the restoration operations and their effects on the structure. The restoration strategy can thus be tested and optimized. A laser scanner is used to acquire the statue geometry, allowing to reconstruct a 3D model for numerical simulation. Computations are carried out within the framework of deformable continuum mechanics using the FLAC3D software. In order to check all the key points ensuring mechanical stability, the behavior of reinforcing elements and those of the interfaces between blocks were considered. From the results of the present studies, a critical analysis of implemented or possible restoration strategy is proposed. In addition, several characterization methods to find the material origin and/or estimate the mechanical properties of the work are proposed : physico-chemical and mineralogical characterizations, non-destructive and destructive tests. An experimental campaign to characterize the behavior of fractures in contact with surface acquisition was performed. An analysis of correlations between mechanical and morphological interfaces properties is then developed. Finally, we propose a predictive modelling based on multiple linear and multivariate regressions. This study allow the simulation of fractured artworks behaviour
18

Rajeha, Hiba. "Optimisation des méthodes d'extraction des composés phénoliques des raisins libanais et de leurs coproduits". Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2209.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de doctorat traite l’optimisation des méthodes d’extraction des composés phénoliques à partir des sous-produits de la viticulture et de la viniculture, à savoir les sarments de vigne et les marcs de raisins. Plusieurs technologies innovantes sont appliquées et comparées : l’extraction accélérée par solvant (EAS), les décharges électriques de haute-tension (DEHT), les ultrasons (US) et les champs électriques pulsés (CEP). Les extractions solide-liquide faites sur les sarments ont montré que, parmi les solvants étudiés, l’eau est le moins efficace. L’ajout de la β-cyclodextrine dans l’eau améliore le procédé d’extraction mais est moins efficace que les mélanges hydroéthanoliques. L’extraction en milieu alcalin donne le meilleur rendement en composés phénoliques. L’intensification de l’extraction des composés phénoliques des sarments est possible grâce aux nouvelles technologies d’extraction. L’efficacité des méthodes testées est la moindre avec les US, moyenne avec les CEP pour atteindre le meilleur rendement phénolique avec les DEHT. La filtrabilité de ces extraits est d’autant plus lente que leur composition est complexe. L’ultrafiltration membranaire permet une très bonne purification et concentration des composés phénoliques. L’étude des mécanismes d’action des DEHT a permis d’identifier les phénomènes favorisant l’extraction des composés phénoliques à partir des sarments. Un effet mécanique des DEHT, capable de fragmenter les sarments, est en majorité responsable de cette amélioration. Le procédé énergivore du broyage pourra alors être omis. Un effet électrique contribuant également à l’intensification du procédé d’extraction est démontré. La formation de peroxyde d’hydrogène durant le traitement par DEHT est quantifiée mais ne semble pas altérer les composés phénoliques qui sont des molécules à capacité antiradicalaire élevée. Quant aux études portées sur les marcs de raisins, la variation simultanée de plusieurs paramètres opératoires a permis l’optimisation de l’extraction aqueuse et hydroéthanolique des composés phénoliques en ayant recours à la méthodologie de surface de réponse (MSR). Le passage d’un milieu aqueux à un milieu hydroéthanolique a permis d’améliorer nettement le procédé d’extraction solide-liquide des composés phénoliques et l’utilisation de l’EAS a permis l’augmentation du rendement en composés phénoliques jusqu’à trois fois par rapport à l’optimum obtenu en milieu hydroéthanolique
This study deals with the optimization of the extraction methods of phenolic compounds from viticulture and viniculture by-products, namely vine shoots and grape pomace. Several innovative technologies were tested and compared: high voltage electrical discharges (HVED), accelerated solvent extraction (ASE), ultrasounds (US) and pulsed electric fields (PEF). The solid-liquid extraction conducted on vine shoots showed that, amongst the studied solvents, water is the least effective. The addition of the β-cyclodextrin to water improves the extraction process but remains less effective than that with hydroethanolic mixtures. The extraction in alkaline medium gives the highest phenolic compound extraction yields. The intensification of phenolic compound extraction from vine shoots was possible thanks to new extraction technologies. The effectiveness of the tested methods was the least with US, followed by PEF to accomplish the highest phenolic yield with HVED. The filterability of the extracts was slower when their composition was complex, and the membrane technology allowed a good purification and concentration of phenolic compounds. The reason behind the high effectiveness of HVED was investigated. The action mechanisms of HVED were studied in details. A mechanical effect of HVED provoked vine shoots fragmentation and particle size reduction. This was the main phenomenon responsible for the intensification of the extraction process. It also suggested that a grinding pretreatment would not be necessary prior to HVED, which considerably diminishes the energy input of the overall process. The presence of a non-mechanical effect and its contribution in the efficiency of HVED were also shown. The formation of hydrogen peroxide during the treatment was observed. However it did not seem to alter vine shoot phenolic compounds since these demonstrated a high radical scavenging capacity. As for the studies conducted on grape pomace, the simultaneous variation of several operating parameters allowed the aqueous and hydroethanolic optimization of phenolic compound extraction from these byproducts by response surface methodology (RSM). The passage from an aqueous to a hydroethanolic medium clearly improved the solid-liquid extraction of phenolic compounds from grape pomace. The use of ASE further increased the phenolic compound yield up to three times as compared to the optimum obtained with a hydroethanolic solvent
19

Touleimat, Nizar. "Méthodologie d'extraction et d'analyse de réseaux de régulation de gènes : analyse de la réponse transcriptionnelle à l'irradiation chez S. cerevisiæ". Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00877095.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réponse cellulaire aux dommages de l'ADN provoqués par l'irradiation (IR) est relativement bien étudiée mais de nombreuses observations montrent l'implication de l'expression de nombreux gènes. Nous souhaitons identifier les différentes formes de la réponse transcriptionnelle à l'IR et reconstruire un réseau de régulation génique impliqué dans son contrôle. La problématique réside dans l'exploitation de dynamiques d'expression de gènes dans des conditions de perturbations génétiques et dans l'intégration d'informations biologiques systémiques. Nous définissons une approche constituée d'une étape automatisée de déduction de régulations à partir de perturbations et de deux étapes d'induction qui permettent d'analyser la dynamique d'expression des gènes et d'extraire des régulations des données additionnelles. Cela nous a permis d'identifier, chez la levure, une réponse complexe à l'IR et de proposer un modèle de régulation dont certaines relations ont été validées expérimentalement.
20

Touleimat, Mohamed Nizar. "Méthodologie d'extraction et d'analyse de réseaux de régulation de gènes : analyse de la réponse transcriptionnelle à l'irradiation chez S. cerevisiæ". Thesis, Evry-Val d'Essonne, 2008. http://www.theses.fr/2008EVRY0044/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La réponse cellulaire aux dommages de l'ADN provoqués par l'irradiation (IR) est relativement bien étudiée mais de nombreuses observations montrent l'implication de l'expression de nombreux gènes. Nous souhaitons identifier les différentes formes de la réponse transcriptionnelle à l'IR et reconstruire un réseau de régulation génique impliqué dans son contrôle. La problématique réside dans l'exploitation de dynamiques d'expression de gènes dans des conditions de perturbations génétiques et dans l'intégration d'informations biologiques systémiques. Nous définissons une approche constituée d'une étape automatisée de déduction de régulations à partir de perturbations et de deux étapes d'induction qui permettent d'analyser la dynamique d'expression des gènes et d'extraire des régulations des données additionnelles. Cela nous a permis d'identifier, chez la levure, une réponse complexe à l'IR et de proposer un modèle de régulation dont certaines relations ont été validées expérimentalement
The cellular response to the DNA damage provoked by irradiation (IR) is relatively well studied, however, many observations show the involvement of the expression of many genes. We propose to identify the different potential patterns of the transcriptional response to IR and to reconstruct a gene regulatory network involved in its control. The first point of this work lies in the exploitation of the gene expression dynamics in conditions of genetic perturbations. The second point lies in the integration of systemic biological informations. We define an approach composed of one step of automated logical deduction of regulations from a strategy of perturbations and two induction steps that allow the analysis of the gene expression dynamics and the extraction of potential regulation from additional data. This approach allowed to identify, for the yeast, a complex response to IR and allowed to propose a regulation model which some relations have been experimentally validated
21

Ghariani, Sondès. "Réponse dynamique de milieux composites aléatoires et déterministes". Paris 6, 1993. http://www.theses.fr/1993PA066374.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le son est souvent utilisé pour caractériser les propriétés mécaniques d'un matériau hétérogène. Pour étudier le problème lié à la propagation des ondes dans un milieu contenant des inclusions, on remplace le milieu composite par un milieu homogène effectif. A basses fréquences, l'atténuation et la vitesse de phase effectives sont déterminées à l'aide d'une théorie statique d'homogénéisation. A hautes fréquences, Urick et Ament ont établi une formule simple exprimant le nombre d'onde complexe du milieu effectif en fonction de la fréquence et des caractéristiques du milieu hétérogène Par ailleurs, on montre que la théorie de Urick-Ament est valable uniquement pour de faibles concentrations des inclusions. Donc, afin d'évaluer d'une manière rigoureuse le nombre d'onde effectif, on a réalisé des simulations numériques basées sur la méthode de l'équation intégrale de volume
22

Michel, Laura, e Laura Michel. "Méthodologie d'analyse structurelle et de restauration d'oeuvres sculptées". Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-01058782.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Actuellement, la restauration des oeuvres d'art, notamment des statues fracturées, repose sur des techniqueséprouvées, mais empiriques. Les statues endommagées comportent souvent des parties brisées. Leur restaurationconsiste la plupart du temps à les rassembler. Ainsi apparait la nécessité de prendre en compte lespropriétés mécaniques des interfaces entre les différentes parties brisées, ce qui permet de limiter l'ampleur desréparations et ainsi, de mieux conserver l'intégrité de l'oeuvre. Par ailleurs, les techniques numériques d'acquisition3D font leur entrée au service de la conservation du patrimoine. Cette thèse propose une méthodologiecapable d'utiliser des données issues d'une acquisition 3D pour simuler les opérations de restauration et leurseffets sur la structure de l'oeuvre. Les processus de restauration peuvent ainsi être testés et optimisés.Un scanner laser est utilisé pour l'acquisition de la géométrie des oeuvres, ce qui nous permet de reconstruireun modèle 3D pour la simulation numérique. Les calculs sont menés dans le cadre de la mécanique des milieuxcontinus déformables avec FLAC3D. Pour vérifier tous les points clés garantissant la stabilité mécanique, lecomportement des éléments de renforts et celui des interfaces entre les blocs ont été considérés. À partirdes résultats de ces études, une critique des stratégies de restauration mises en oeuvre ou envisageables estproposée.De plus, plusieurs méthodes de caractérisation visant à retrouver la provenance du matériau et/ou estimerles propriétés mécaniques de l'oeuvre sont proposées : caractérisations physico-chimiques et minéralogiques,essais non destructifs et destructifs. Une campagne expérimentale visant à caractériser le comportement desfractures en contact frottant avec acquisition de l'état de surface a été réalisée. Une analyse des corrélationsentre les propriétés mécaniques et morphologique des interfaces est ensuite élaborée. Enfin nous proposonsdes modèles prédictifs construits par régressions linéaires multiples et multivariées. Cette étude permet desimuler le comportement d'une oeuvre fracturée.
23

Benamara, Farah. "Webcoop : un système de question-réponse coopératif sur le web". Toulouse 3, 2004. http://www.theses.fr/2004TOU30169.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif le développement d'un système question réponse (SQR) coopératif en français pour le Web, nommé WEBCOOP. Ce système a but : - l'intégration de procédures de raisonnement avec des connaissances extraites de pages web et une base de connaissances pour produire des réponses intelligentes en langage naturel. - la production de réponses courtes, intelligibles, inspirées de situations réelles. Les réponses produites par le système sont structurées en deux parties. La première est un diagnostic qui fait un rapport des malentendus. La deuxième partie propose un véritable savoir-faire coopératif. Elle inclut la relaxation minimale et graduelle de certaines contraintes de la question et la production de réponses intensionnelles ou synthétiques. - la génération en langue d'explications de réponses. Nous proposons également d'évaluer l'intelligibilité linguistique et cognitive des réponses coopératives produites en les confrontant à des utilisateurs potentiels. -the natural language generation of the responses. The linguistic and the cognitive adequacy of the responses produced by the system are evaluated using psycholinguistic protocols
This thesis describes the WEBCOOP system that aims at providing cooperative responses in French to natural language queries on the web. The main objectives of the system are : -the integration of reasoning procedures with a variety of knowledge bases as well as real life data extracted from web pages in order to produce web style natural language responses. -major and new feature: the integration of a cooperative know-how component that goes beyond the mere recognition of a user misconception
24

Crespo, Alexia. "Compréhension de la tribologie des films limites : de l'organisation moléculaire à la réponse en friction". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC021/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contrôle de la friction en régime limite s’effectue par le biais de lubrifiants qui, par l’adsorption de molécules sur les surfaces, réduisent les contacts directs entre aspérités. Dans ce contexte, l’objectif de cette thèse est de comprendre et de coupler les mécanismes, à la fois, d’adsorption et d’auto-organisation de différents acides gras sur des surfaces, et les mécanismes de friction interfaciale sous des conditions stationnaires et transitoires. L’effet de l’architecture moléculaire, modifiée par la présence et la conformation d’une insaturation dans la chaîne aliphatique des acides gras, a également été analysé. La caractérisation in-situ, à l’échelle moléculaire, a été réalisée avec le tribomètre moléculaire ATLAS développé au LTDS. Cet appareil permet des déplacements quasi-statiques et dynamiques, d’une sphère mise en regard d’un plan, suivant trois axes. Trois solutions d’acides gras, en faible concentration dans du dodécane, ont été analysées. Les déplacements et les forces, normaux et tangentiels, sont mesurés à l’aide de capteurs capacitifs d’une résolution respective de 0.015 nm et 10 nN. Des sollicitations dynamiques superposées permettent de caractériser simultanément la rhéologie de l’interface confinée en termes d’amortissement et de raideur, dans les deux directions. Les résultats montrent que les acides gras s’adsorbent par interaction physique sur les surfaces pour former des films visco-élastiques d’une épaisseur d’environ 15 Å sur chaque surface. Le taux de couverture et la cinétique d’adsorption de ces couches dépendent de l’architecture moléculaire des acides gras. Cette dernière gouverne également la friction interfaciale, qui a été qualifiée de supraglissement, et la rhéologie des monocouches auto-assemblées. Les différentes organisations de films conduisent ainsi à différentes évolutions de la friction en fonction de la vitesse de glissement et de la pression de contact. La réponse en friction transitoire et l’accommodation lors du glissement vers un nouvel état stationnaire ont de plus été décrites par des distances caractéristiques, de plusieurs nanomètres, reflétant le renouvellement statistique des spots de contact, et par des temps de relaxation, de l’ordre de la seconde, décrivant le réarrangement moléculaire au sein de l’interface. Enfin, une modélisation théorique de la friction limite a été proposée afin de comprendre l’origine moléculaire de la friction entre monocouches d’acides gras mettant ainsi en évidence le couplage fort de deux échelles spatiales et temporelles
Friction in boundary lubrication can be controlled by the adsorption of molecules on surfaces that reduce direct contacts between asperities. In this context, the aim of this thesis is to understand and to couple the mechanisms of adsorption and self-organization of different fatty acids on surfaces, with the mechanisms of interfacial friction under steady-state regime and transient conditions. The effect of the molecular architecture, modified by the presence and conformation of one unsaturation in the aliphatic chain of fatty acids, was also analyzed. In-situ characterization, at the molecular level, was performed with the molecular tribometer ATLAS, developed at LTDS. This apparatus allows quasi-static and dynamic displacements, of a sphere in front of a plane in three directions. Three fatty acids solutions, in low concentration in dodecane, were analyzed. The displacements and the forces, normal and tangential, are measured using capacitive sensors with a resolution of 0.015 nm and 10 nN respectively. Dynamic superimposed measurements allow a simultaneous rheological characterization of the confined interface in terms of damping and stiffness in two directions. The results show that the fatty acids adsorb on the surfaces by weak interactions and form viscoelastic films with a thickness of about 15 Å on each surface. The coverage rate and adsorption kinetics of these layers depend on the molecular architecture of the fatty acids. This architecture also governs interfacial friction, which has been described as superlubricity, and the rheology of self-assembled monolayers. Various film organizations have thus led to different evolutions of the friction as a function of the sliding speed and the contact pressure. The transient friction response and its accommodation during slip to a new stationary state have also been described by characteristic distances of several nanometers, reflecting the statistic average renewal of the contact spots, and by relaxation times of the order of the second, describing the molecular rearrangement within the interface. Finally, theoretical modeling of boundary friction has been proposed to understand the molecular origin of the friction between monolayers of fatty acids and highlight the strong coupling between both spatial and temporal scales
25

Baghdadi, Mehme. "Courantologie lagrangienne de surface par radar VHF en zone côtière : Mise en oeuvre et méthodologie d'application". Toulon, 1994. http://www.theses.fr/1994TOUL0007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le laboratoire de sondages electromagnetiques de l'environnement terrestre a une pratique confirmee de la mise en uvre des radars doppler vhf pour la realisation de mesures euleriennes des courants marins en zone cotiere (jusqu'a environ 30 km de la cote). Nous avons cherche a utiliser le meme instrument pour realiser, simultanement aux mesures euleriennes, des mesures lagrangiennes en effectuant le suivi, avec le radar, de flotteurs derivants de surface equipes de balises fournissant un echo radar calibre. Il s'agissait donc de transformer le radar courantometrique en un radar de teledetection et de poursuite. Le systeme (radar et bouees) permet, par le biais d'une utilisation simultanee de plusieurs flotteurs, d'estimer l'importance des phenomenes de dispersion et de diffusion. Ce travail de these se decompose en deux parties: apres une etude theorique et numerique de la propagation a la surface de la mer qui a permis d'etablir le bilan de puissance necessaire pour fixer les caracteristiques techniques des balises, la premiere partie est consacree a la localisation d'une balise ; il s'agit de determiner ses parametres (distance radiale, vitesse radiale et azimut) a partir des signaux recueillis par le radar. L'azimut de la balise est estime par une methode d'interferometrie simplifiee basee sur la relation ideale entre deux antennes consecutives alors que sa localisation dans le plan distance-frequence doppler utilise la representation dans ce plan du minimum de la fonction de cout de la regression azimutale. Des campagnes d'essais ont valide a la fois le dimensionnement et les algorithmes de poursuite des balises: la precision de leurs localisations par le radar est de l'ordre de 20 m pour une balise fixe et de 60 m pour une balise en mouvement a une vitesse de quelques nuds. La precision sur la mesure de la vitesse est meilleure que 5 cm/s. Nous avons cherche a utiliser les mesures de vitesse pour ameliorer l'estimation de la position, par une methode de moindres carres ou un algorithme recursif de kalman. Dans une deuxieme partie, nous proposons une methode d'utilisation couplee des donnees euleriennes et lagrangiennes pour estimer l'importance des phenomenes de diffusion horizontal. Elle consiste a comparer les caracteristiques statistiques dela repartition de plusieurs bouees lachees et celles obtenues grace a des simulations numeriques basees sur une methode de marche au hasard ; la comparaison des simulations numeriques et des resultats des mesures permet de determiner le coefficient de diffusion. Nous montrons que ce coefficient est une bonne approximation de celui d'un contaminant. Des simulations numeriques concernant l'influence de la resolution spatiale des mesures de courant et du nombre de flotteurs sur la precision des mesures de dispersion ont ete effectuees. Elles montrent que l'erreur sur l'estimation de ce coefficient pour 5 bouees lachees et avec une resolution spatiale de (500 x 500) m#2 peut etre de l'ordre de 30%. On obtient ainsi un instrument particulierement complet de diagnostic dynamique en zone cotiere, presentant un grand interet pour l'etude d'un rejet ou le transport d'un contaminant
26

Boukinda, Mbadinga Morgan Laetitia. "Surface de réponse des efforts de houle des structures jackets colonisées par des bio-salissures". Nantes, 2007. http://www.theses.fr/2007NANT2158.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors de la conception ou de l'analyse d'une structure pétrolière offshore, une des étapes les plus délicates concerne le calcul des sollicitations, actions exercées par la houle, le vent et les courants. Il recouvre plusieurs niveaux d'aléas ou d'incertitudes concernant les paramètres caractérisants l'environnement marin et le calcul de sollicitations. En phase de requalification, cette problèmatique est accentuée par les présences d'organismes marins, appelés bio-salissures marines. En effet, très rapidement, les structures implantées sont couvertes d'une multitude d'organismes marins. Ce phénomène est particulièrement difficile à quantifier compte tenu de la diversité des organismes, des conditions saisonnières et de la compétition à laquelle se livrent les différentes espèces pour leur survie. Son influence sur une structure pétrolière offshore peut être mesurée à plusieurs niveaux : gêne ou interdit des inspections visuelles du support sous-jacent, procédures de nettoyage coûteuses pour les industries pétrolières, augmentation des efforts hydrodynamiques au niveau de la structure. On propose dans ce mémoire une modélisation probabiliste de l'évolution de la colonisation de bio-salissures en cinq régions du Golfe de Guinée et une modélisation probabiliste, sous forme de surface de réponse physique, du calcul de sollicitations sur des structures Jacket en présence de bio-salissures. On conclut sur une étude de cas mettant en avant des études de sensibilité et d'incertitudes en vue d'améliorer, de compléter, d'intégrer et de rendre plus opérationnels les méthodes et outils de requalification disponibles
When designing or re-assessing an offshore structure, one of the most delicate stages relates to the calculation of the solicitations : actions exerted by the swell, the wind and the currents. It comes partly from the randomness or uncertainties that concern the marine environment as well as the modelling of loading. Presence of marine growth makes these questions more sensitive. The generic term of marine growth includes the vegetable species (algae …) and animal (mussel, anemones, corals …). Indeed very quickly, the structures are covered of a multitude of marine organisms. It remains particularly difficult to quantify this phenomenon by taking into account the diversity of the organism, the seasonal conditions and the competition to which the various species for their survival are delivered. Its influence on an offshore structure can be measured on several levels : obstruct or prohibits a visual inspection of the subjacent support, expensive procedures of cleaning for oil industries, increase in the hydrodynamic efforts on the level of the structure. This work aims to provide a probabilistic modelling of marine growth evolution in five regions in the Gulf of Guinea. A physical matrix response surface is then built in view to provide a probabilistic modelling of the environmental loading on Jacket offshore structures in presence of marine growth. A study case allows performing sensitivity and uncertainty studies in view to improve, supplement, integrate and make more operational the methods and tools for structural reassessment
27

Carton, Jean-François. "Traitements superficiels et tenue en service des assemblages démontagles : Base d'une méthodologie de choix en tribologie". Ecully, Ecole centrale de Lyon, 1993. http://www.theses.fr/1993ECDL0026.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La durée de vie des assemblages démontables peut être considérablement réduite à cause du fretting. Se pose alors le problème de la protection des surfaces. La mise au point d'une démarche rationnelle et méthodique est alors nécessaire. En premier lieu, est caractérisé le matériau de base, en l'occurrence un acier, grâce a un dispositif expérimental simple et dont les paramètres sont contrôlés. Plusieurs familles de revêtements sont ensuite étudiées : traitement de diffusion (nitruration, cémentation), dépôts plasma, revêtements anti-friction. Sont ainsi mis en évidence, les paramètres les plus importants. Ils concernent les propriétés intrinsèques des matériaux en présence, celles liées a la présence d'un traitement superficiel, la sollicitation locale du contact, la dégradation associée. C’est ainsi que cette étude permet de poser les bases d'une méthodologie de choix des traitements superficiels en vue d'applications tribologiques et tout particulièrement dans le cadre du fretting. L’ensemble est synthétisé sous forme d'un diagramme polaire.
28

Sabri, Leila. "Développement et mise en œuvre d'une méthodologie d'analyse multi-échelle du procédé de rodage en production de série". Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00526528.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les fûts des carter-cylindre des moteurs jouent un rôle fondamental dans la fonctionnalité du moteur et conditionnent ses performances. La texture des surfaces des fûts de carter représente, en effet, une surface " originale " à micro-échelle structurée de façon à répondre aux caractéristiques d'aspect de la surface et à ses propriétés d'anisotropie. Elle comprend des stries plateaux (régions portantes) et des vallées profondes pour retenir et transporter le lubrifiant. Ces surfaces sont générées par le process de rodage. L'objectif de cette thèse est de développer une méthodologie robuste pour l'analyse des caractéristiques des surfaces rodées en tenant compte des relations entre les mécanismes d'usure abrasive pendant l'opération de rodage et les modifications multi-échelles des signatures topographiques inhérentes. Ces modifications multi-échelles de la surface sont, par ailleurs, reliées aux conditions opératoires définies pour le rodage des surfaces en harmonie avec le besoin fonctionnel. Cette thèse expose les bases d'utilisation des transformées en ondelettes continues pour étudier la nature multi-échelle de la génération de la topographie de la surface pendant le process de rodage utilisé pour finir les fûts de carter cylindres. La nature multi-échelle du process de rodage est clairement démontrée et constitue un traceur ex situ pouvant expliquer la superposition des signatures inhérentes aux opérations consécutives de rodage. L'implémentation de cette approche multi-échelle dans un environnement de production en série permet de corréler la qualité fonctionnelle du produit et le process de génération des surfaces rodées. Une cartographie de la topologie de la surface est ainsi définie via des spectres d'évolution de la texture de la surface. Elle permet d'analyser l'évolution des modifications texturales induites à chaque étape de rodage et de définir les relations exactes d'enchaînement causes/conséquences de l'intervention des variables process. Différentes applications sont, dès lors, exposées pour la conception process/produit permettant d'analyser l'efficience du process en relation avec le produit et de définir de nouveaux paramètres process de productivité.
29

Leveillard, Florine. "Méthodologie de minimisation de la pollution appliquée au traitement de surface : étude de l'entraînement comme vecteur de pollution". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00669667.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte réglementaire incitant fortement les industriels à la réduction de la pollution à la source, l'application de stratégies telles que des bonnes pratiques environnementales et un meilleur contrôle des procédés constituent une réponse aux enjeux environnementaux. Le traitement de surface par voie aqueuse est une activité grande consommatrice d'eau et de produits chimiques et donc génératrice de rejets aqueux pollués. L'objectif de ce travail est de proposer à ce secteur d'activité une méthodologie simple de limitation des flux de pollution ainsi que de la consommation en eau. Cette méthodologie se base notamment sur le postulat que l'entraînement est le principal vecteur de pollution au sein d'une chaîne de traitement de surface.Des études expérimentales ont permis, d'une part de créer une méthode rapide de calcul de l'entraînement et, d'autre part, de montrer et de quantifier l'influence de la forme et de la rugosité des pièces traitées, du temps d'égouttage, de la tension superficielle des solutions de traitement ou encore du type et de la durée du rinçage des pièces sur l'entraînement.L'ensemble de ces éléments, intégrés à la méthodologie de minimisation de la pollution, permet d'une part de réaliser un diagnostic de la chaîne mais aussi d'estimer l'impact d'une modification de cette chaîne sur la consommation spécifique en eau, le bilan de pollution ainsi que sur la qualité des rinçages. Cette méthodologie aide ainsi à limiter les consommations d'eau et de réactifs non seulement sur la chaîne mais également en station de détoxication, diminuant ainsi les impacts environnementaux et les coûts de fonctionnement.
30

Leveillard, Florine. "Méthodologie de minimisation de la pollution appliquée au traitement de surface : étude de l’entraînement comme vecteur de pollution". Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0598/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte réglementaire incitant fortement les industriels à la réduction de la pollution à la source, l’application de stratégies telles que des bonnes pratiques environnementales et un meilleur contrôle des procédés constituent une réponse aux enjeux environnementaux. Le traitement de surface par voie aqueuse est une activité grande consommatrice d’eau et de produits chimiques et donc génératrice de rejets aqueux pollués. L’objectif de ce travail est de proposer à ce secteur d’activité une méthodologie simple de limitation des flux de pollution ainsi que de la consommation en eau. Cette méthodologie se base notamment sur le postulat que l’entraînement est le principal vecteur de pollution au sein d’une chaîne de traitement de surface.Des études expérimentales ont permis, d’une part de créer une méthode rapide de calcul de l’entraînement et, d’autre part, de montrer et de quantifier l’influence de la forme et de la rugosité des pièces traitées, du temps d’égouttage, de la tension superficielle des solutions de traitement ou encore du type et de la durée du rinçage des pièces sur l’entraînement.L’ensemble de ces éléments, intégrés à la méthodologie de minimisation de la pollution, permet d’une part de réaliser un diagnostic de la chaîne mais aussi d’estimer l’impact d’une modification de cette chaîne sur la consommation spécifique en eau, le bilan de pollution ainsi que sur la qualité des rinçages. Cette méthodologie aide ainsi à limiter les consommations d’eau et de réactifs non seulement sur la chaîne mais également en station de détoxication, diminuant ainsi les impacts environnementaux et les coûts de fonctionnement
Currently, via the prevention principle, environmental regulations incite industries to implement strategies to reduce the pollution at the source (ICPE, IPPC, IED). Industries are sometimes lost in front of various proposed technical solutions. The application of cleaner production strategies such as good operational procedures and good practices of management allow to answer these constraints.The metal finishing activity uses a lot of water and chemicals and thus generates polluted effluents. The objective of this work is to propose a simple methodology of limitation of the pollution flows and of the water specific consumption of metal finishing workshops.Then, experimental studies have allowed, on one hand, to create an easy method of the drag-out calculation and, on the other hand, to show and to quantify the influence of different parameters on the drag-out, from a qualitative and quantitative point of view. They are, for example, the shape and the roughness of the treated pieces, the draining time, the superficial tension of the treatment solutions but also the stirring type and duration of rinsing.All these elements, integrated into the methodology of pollution minimization, allow to realize a diagnosis of the process line. Moreover, it permits to estimate the impact of a modification of this installation on the specific consumption of water, on the pollution balance assessment and on the rinsing quality. So, this methodology can help to optimize and to limit consumptions of water and chemicals not only on the process line but also in wastewater treatment plant, so decreasing the environmental impacts and the running costs
31

Blanc, Amandine. "Identification de réponse impulsionnelle et restauration d'images : apport de la diversité de phase". Paris 11, 2002. http://www.theses.fr/2002PA112230.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les images enregistrées à l'aide d'un télescope peuvent être dégradées par la présence d'aberrations provenant des défauts propres de l'optique de l'instrument et de perturbations induites par l'atmosphère terrestre. La diversité de phase est une technique permettant à la fois de mesurer les aberrations et de restaurer l'image. Cette technique repose sur l'acquisition simultanée d'images focalisée et défocalisée(s). L'avantage de cette méthode est d'être optiquement très simple à mettre en œuvre et de fonctionner sur objet étendu. Sa difficulté majeure réside dans la résolution du problème inverse qui consiste à estimer, à partir des images, les inconnues que sont les aberrations et l'objet. Une première étude propose une analyse originale de la seule méthode d'estimation utilisée en diversité de phase qui repose sur la reconstruction conjointe des aberrations et de l'objet observé. Elle montre ses mauvais comportements asymptotiques et le problème du réglage des paramètres introduits par les termes de régularisation. Une mise en œuvre expérimentale de cette méthode jointe pour l'estimation des aberrations d'un système astronomique est faite et démontre la très grande adaptabilité de la méthode à un problème concret. Afin de résoudre les problèmes de l'estimation jointe, une méthode d'estimation novatrice basée sur la restauration marginale des seules aberrations est développée. La comparaison sur données simulées et expérimentales des estimées obtenues à partir des deux méthodes montre la supériorité de l'estimateur marginal dans le domaine des forts bruits notamment. Enfin une méthode originale d'estimation des phases fortement aberrantes basée sur une paramétrisation pixel-à-pixel de la phase dans la pupille est développée. La comparaison de ses performances avec celles obtenues avec une méthode plus classique, utilisant une décomposition modale de la phase démontre sa plus grande robustesse
The images recorded by a telescope can be degraded by aberrations due to design, fabrication, misalignments and atmospheric turbulence. Phase diversity is a technique that allows the estimation of aberrations and the image restoration. It consists in the simultaneous acquisition of the usual focal plane image and of one (or more) additional defocused image(s). This technique uses a low-cost, optically simple wavefront sensor which can work with an extended scene. The aberrations and the object are estimated numerically from the images, by solving an optimization problem. We present an original analysis of the properties of the only estimator used in the literature, based on a joint estimation of the aberrations and of the observed object. We show its bad asymptotic behavior and we study the problem of tuning the regularization parameters. The joint method is implemented experimentally to estimate the aberrations of an operational astronomical system. It shows that phase diversity is a powerful approach to measure the unseen aberrations of an adaptive optics system. To solve the problems of the joint method, a novel estimator called marginal estimator is proposed. It restores the sole aberrations by integrating the object out of the problem. The comparison of the quality of the restoration obtained by both methods, on simulated and on experimental data, shows that the performance of the marginal approach is higher under high noise conditions. Finally we develop a novel method for the estimation of high amplitude aberrations in which the phase amplitude is estimated on a point-by-point basis. The comparison of its performance with that of a conventional method based on the expansion of the aberrated phase function on a set of polynomials shows its better robustness
32

Feki, Soufiane. "Musicologie, sémiologie ou éthnomusicologie : quel cadre épistémologique, quelles méthodes pour l'analyse des musiques du maqâm ? : éléments de réponse à travers l'analyse de quatre taqsîms". Paris 4, 2006. http://www.theses.fr/2006PA040099.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, l'auteur propose une réflexion sur les possibilités de concevoir un langage analytique approprié aux musiques du maqâm. En effet, les études faites autour des répertoires musicaux rattachés au système musical du maqâm achoppent sur un manque d'approches systématiques et immanentes. On y remarque la prépondérance de travaux descriptifs, historiographiques et anthropologique au détriment d'études analytiques qui prendraient comme point de départ la structure musicale. Ce mémoire de thèse comporte deux parties. La première porte sur des problèmes de terminologie et de typologie, notamment en ethnomusicologie, ainsi que sur des questions de méthodologie en rapport avec l'étude du phénomène musical en général. Elle aborde également les aspects sémiologiques du maqâm en tant que concept musical porteur de symbolique. Cette première partie constitue une assise théorique pour la deuxième partie qui est axée sur l'analyse de quatre taqsîm (improvisations) en maqâm nahāwand. L'analyse de ces taqsîm est basée sur la méthode paradigmatique ainsi que sur un travail de réduction et des digrammes formels et structurels. Le but de cette approche analytique étant de déceler, dans chaque taqsîm, les éléments systématiques qui relèvent de l'identité du maqâm afin de les séparer des impératifs relatifs à la forme taqsîm ainsi que des paramètres d'ordre stylistique. Ce travail analytique est s'achève par une synthèse générale qui tente de mesurer l'efficacité de la méthode d'analyse éprouvée et d'émettre des hypothèses concernant la systématique du maqâm et les fondements de la forme taqsîm
Throughout this thesis, the author proposes a reflection on the possibilities to conceive an analytic language appropriate to the music of the maqâm. Indeed, studies on the musical repertoires associated with the maqâm as a musical system suffer from a lack of systematicity. One can notice there the preponderance of a descriptive, historiographical and anthropological work to the detriment of the analytic study that would take, as a starting point, the structures of music. This research paper includes two parts. The first part is devoted to problems of terminology and typology, notably in ethnomusicology. Questions of methodology related to the survey of the musical phenomenon in general are highlighted, as well. It also tackles the semiological aspects of the maqâm being a musical concept that carries a great deal of symbolic value. This first part constitutes a theoretical foundation for the second part that is centered on the analysis of four taqsîms (improvisations) in the nahāwand maqâm. The analysis of these taqsîms is based on a paradigmatic method as well as on the abstract formal and structural diagrams. This analytic approach attempts to discover, in every taqsîms, the systematic elements that have to do with the identity of the maqâm in order to separate them from the imperatives relative to the taqsîm form as well as stylistic parameters. This analytic work ends by a general synthesis that attempts to measure the efficiency of analysis method in question and to put hypotheses concerning the underlying system of the maqâm and the foundations of the taqsîm form
33

Petiot, Caroline. "Développement d'une méthodologie prévisionnelle du comportement en fretting-fatigue couplant les approches expérimentales et théoriques". Ecully, Ecole centrale de Lyon, 1994. http://www.theses.fr/1994ECDL0043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une methodologie de prevision du comportement de materiaux sollicites en fretting-fatigue est presentee. Elle s'appuie sur les resultats experimentaux obtenus sur le couple acier 32cdv13/100c6 etudie, protege superficiellement ou non. Les protections de surface etudiees sont diverses: depot electrolytique de cadmium, traitement mecanique de grenaillage, vernis a base de teflon, depot plasma cw-co(17%). Les resultats experimentaux sont exploites a la fois, a travers deux cartes similaires a celles utilisees en fretting-wear et a travers des courbes de wohler. Les cartes rendent compte du mecanisme d'accomodation des deplacements des surfaces en contact (collage, glissement, mixte) et des endommagements associes (non degradation, detachement de particules, fissuration). La courbe de wohler prend en compte la duree de vie des essais et permet de calculer l'abattement sur la limite d'endurance en fatigue (effet du fretting). Un modele elements finis elasto-plastique de simulation du dispositif d'essai est presente. Il utilise des elements de contact pour prendre en compte les cfficients de frottement mesures experimentalement. Il est alors possible d'appliquer au modele les parametres operatoires pour simuler l'accomodation des deplacements dans le contact. A ce stade, il est possible de differencier les conditions operatoires qui conduisent a de l'usure, de celles qui conduisent soit a la fissuration soit a la non degradation des pieces en contact. Le critere de dang van, critere d'amorcage en fatigue multiaxiale, est applique au champs de contraintes local calcule par le modele, pour distinguer l'amorcage du non amorcage (non degradation). Les trois types de degradation des cartes experimentales sont alors predites. Des calculs complementaires de propagation de defaut permettent de determiner si toutes les conditions d'amorcage sont des conditions de propagation. La limite d'endurance en fretting-fatigue est ainsi estimee avec precision
34

Pauthenier, Cyrille. "Développement d’une nouvelle méthodologie pour la production de molécules par ingénierie métabolique en délocalisant tout ou partie des réactions enzymatiques sur la surface de S. cerevisiae". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE029/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’ingénierie métabolique est une discipline qui vise à modifier artificiellement le métabolisme d’un organisme afin de lui faire produire un composé chimique d’intérêt. L’une des problématiques fréquemment rencontrées pour la production de nouvelles molécules est l’impossible diffusion du produit formé dans le cytoplasme vers l’extérieur de la cellule. Ce phénomène engendre une accumulation de ce dernier à l’intérieur du micro-organisme qui limite sa capacité de production pour des raisons de cinétiques chimiques et de toxicité pour l’hôte. Enfin, cela complique fortement la récupération et la purification de la molécule d’intérêt, ce qui peut réduire à néant le rendement économique du procédé industriel.Durant cette thèse, nous avons exploré la possibilité de réaliser les dernières étapes de synthèse de composés imperméables pour la membrane à l’extérieur de la cellule en utilisant des enzymes accrochées à la surface de la levure par la technique de “yeast surface display”.Dans une première partie, nous avons regardé l’intérêt industriel de la bioéconomie, puis nous nous sommes intéressés aux problématiques liées à la perméabilité des membranes plasmiques. Dans un second temps, nous avons évalué les méthodes de mesures de la perméabilité des membranes biologiques et exploré la possibilité de développer une méthode prédictive en utilisant une technique de relation structure-propriété. Dans un troisième temps, nous avons évalué les systèmes de “yeast surface display” disponibles et cherché à en découvrir de nouveaux, adaptés à nos problématiques. Dans l'objectif de construire ces bibliothèques nous avons aussi réalisé un outils informatique, permettant de calculer de grands nombres de primers. Enfin, nous avons réalisé différents circuits de production de molécules modèles pour évaluer la pertinence de l’approche pour la production de composés imperméables
Sustainable chemical production is one of the endeavour of the post-oil era. Amongst the possible techniques, metabolic engineering which aims at producing novel compounds through genetic engineering of micro-organism is seen as one of the most promising techniques. One of the problem met by metabolic engineers is often the absence of diffusion or pumping mechanism expelling the compound of interest produced in the cell cytoplasm towards the outer environment, which reduces the process efficiency because of kinetic and toxicity concerns.During this PhD, we explored the possibility of producing impermeable compounds on the surface of a cell by anchoring the last reaction enzyme using « Yeast surface display » techniques.As PhD disputation we first looked at the industrial interest of metabolic engineering in the whole bioeconomy framework. We then looked at the membrane permeability issues met for the production of some compounds. We evaluated the different membrane permeability techniques and explored the possibility realizing a predictive technique using quantitative structure-property relationship (QSAR). We evaluated the different yeast-display systems available and paved the way for the discovery of new systems more suitable for metabolic engineenering. We developped a dedicated program tool for large PCR fragment library design. Finally we built several toy metabolic pathways in yeast in order to evaluate the interest of the technique
35

Guillet, Nicolas. "Etude d'un capteur de gaz potentiométrique. Influence et rôle des espèces oxygénées de surface sur la réponse électrique". Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00001580.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail s'inscrit dans la continuité de deux thèses présentées par Eliette Fascetta en 1993 et Christophe Pupier en 1999 qui ont été consacrées à l'étude d'un capteur de gaz potentiométrique original. Contrairement aux capteurs potentiométriques classiques, celui-ci a la particularité de disposer de deux électrodes différentes disposées dans la même atmosphère gazeuse. Ces travaux ont donné lieu à d'importants développements technologiques et ont permis de jeter les bases d'un modèle électrochimique à même de mieux interpréter l'influence de certains gaz tels que l'oxygène sur la réponse du capteur. Notre démarche a donc consisté à approfondir la compréhension des phénomènes qui sont à l'origine de la réponse électrique de ce capteur afin d'en optimiser le fonctionnement pour les différentes applications visées. La première partie de ce travail concerne la caractérisation physico-chimique des espèces qui interviennent dans la création du signal électrique et en particulier l'étude du rôle exact de l'oxygène. Pour cela, nous avons fait appel à des techniques usuellement utlisées pour l'étude des interactions gaz-solide telles que la calorimétrie et les mesures de potentiel de surface. Ensuite, nous avons étudié l'importance du choix des matériaux utilisés ainsi que l'influence de paramètres caractéristiques tels que la nature et la taille des électrodes sur la réponse électrique du capteur. Tous ces résultats ont alors été exploités pour proposer un mécanisme complet permettant d'expliciter les phénomènes qui interviennent dans l'apparition du signal électrique. Ce modèle a été confronté aux résultats expérimentaux concernant l'influence de la pression d'oxygène et de la température, puis il a été étendu à l'action combinée de la température, la pression d'oxygène et d'un gaz réducteur, le monoxyde de carbone.
36

Tchinda, Sonhapi Arielle. "Analyse Conformationnelle des Protéines en Réponse à l'Environnement (pH et Température) par Spectroscopie Raman Exaltée en Surface (SERS)". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCK080.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse présentée propose une exploration approfondie des structures et des comportements des protéines, en mettant particulièrement l'accent sur leurs interactions avec des nanoparticules colloïdales d'or. Pour analyser en détail les modifications des protéines en réponse aux variations de pH et de température, Arielle utilise les techniques de Spectroscopie Raman Amplifiée en Surface (SERS) ainsi que la microfluidique.L'analyse de la structure secondaire des protéines, en utilisant l'albumine sérique bovine (BSA) comme modèle, révèle des liens étroits avec la conformation globale de la protéine. Des variations de pH et de température entraînent des changements conformationnels importants, visibles dans l'analyse des amides I, II et III. De plus, l'étude ne se limite pas aux protéines bien structurées, mais englobe également les protéines intrinsèquement désordonnées (PIDs), qui adoptent des conformations flexibles en réponse à leur environnement, élargissant ainsi notre compréhension de la complexité structurale des protéines.L'exploration des interactions protéine-nanoparticule sert de base pour comprendre comment cette diversité structurale se traduit par une variété de fonctions biologiques. Arielle utilise une approche novatrice basée sur les chaînes de Markov pour analyser le désordre protéique, offrant une vue globale de la flexibilité et de la plasticité des protéines, avec des applications réussies à la BSA et à l'alpha-synucléine.Enfin, la thèse souligne l'importance de comprendre la dynamique conformationnelle à l'échelle de la protéine unique dans les processus biologiques, avec des implications potentielles pour les avancées médicales et biotechnologiques
The thesis presented offers an in-depth exploration of protein structures and behaviors, with a particular focus on their interactions with colloidal gold nanoparticles. To analyze protein modifications in response to variations in pH and temperature, Arielle utilizes Surface-Enhanced Raman Spectroscopy (SERS) techniques as well as microfluidics.The analysis of protein secondary structure, using bovine serum albumin (BSA) as a model, reveals close links with the overall protein conformation. Changes in pH and temperature result in significant conformational alterations, visible in the analysis of amides I, II, and III. Furthermore, the study is not limited to well-structured proteins but also encompasses intrinsically disordered proteins (IDPs), which adopt flexible conformations in response to their environment, thus expanding our understanding of the structural complexity of proteins.Exploring protein-nanoparticle interactions serves as a basis for understanding how this structural diversity translates into a variety of biological functions. Arielle employs an innovative approach based on Markov chains to analyze protein disorder, providing a comprehensive view of protein flexibility and plasticity, with successful applications to BSA and alpha-synuclein.Finally, the thesis underscores the importance of understanding conformational dynamics at the single-protein level in biological processes, with potential implications for medical and biotechnological advancements
37

Khayyat, Kholghi Madjid. "Gestion conjointe des eaux de surface et souterraines : approche par simulation, optimisation et aide à la décision : méthodologie et application". Poitiers, 1997. http://www.theses.fr/1997POIT2295.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail presente dans ce memoire concerne l'elaboration d'une methode de gestion conjointe et quantitative des ressources en eaux superficielle et souterraine. Le cadre adopte dans ce travail est la gestion des ressources basee sur l'eau souterraine. La seule simulation du systeme aquifere (ou du systeme aquifere-riviere) n'est pas suffisante pour la gestion. Le modele de simulation doit etre integre dans un modele d'optimisation. D'autre part, lorsque la gestion d'un systeme de ressources en eau repose sur plusieurs criteres, un modele de simulation-optimisation ne peut resoudre le probleme a partir d'un seul critere. Il faut donc un outil supplementaire multicritere d'aide a la decision. La methodologie elaboree dans cette these propose une approche par simulation, optimisation et aide a la decision. Ce modele a ete applique pour lagestion des ressources en eau dans la plaine alluviale de bistoun situee a l'ouest de l'iran. Les cinq criteres de gestion ont ete identifies et une serie de scenarii a ete d'abord definie. Leurs consequences ont ete ensuite determinees par programmation lineaire. Le meilleur scenario a ete choisi a l'aide de la fonction d'utilite. Les resultats bases sur cette approche montrent qu'avec un taux egal a 51. 6% du debit disponible dans les rivieres et une exploitation maximale permise de la nappe, on peut resoudre le probleme de gestion des ressources en eau dans ce site avec des consequences tout a fait positives au niveau regional.
38

Touzani, Samir. "Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00614038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées.
39

Boucharat, Cécile. "Méthodologie d'analyse d'acides organiques à l'état de traces dans les eaux de surface et les eaux destinées à la consommation humaine". Pau, 1997. http://www.theses.fr/1997PAUU3008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin de completer un protocole de fractionnement de la micropollution organique, le developpement d'une methodologie d'analyse d'acides organiques a l'etat de traces dans les eaux a ete effectue. Une approche bibliographique a permis d'une part d'etudier les composes susceptibles de se trouver dans les eaux de surface et les eaux potables et d'autre part d'orienter le choix d'une methodologie. Les composes ont ete preconcentres sur polymere de styrene divinylbenzene en serie avec une resine echangeuse d'anions. Le volume d'echantillon extrait est de 600 ml. Une derivation au bf#3/methanol des acides presents dans le solvant d'elution a permis leur analyse par couplage cpg/sm. Les limites de detection obtenues pour des eaux naturelles sont inferieures a 100 ng/l, avec une repetabilite de 7%. La methodologie mise au point a ensuite ete appliquee a l'analyse d'echantillons d'eau de charges minerale et organique variees. Ce protocole peut en outre etre utilise pour la recherche specifique d'acides organiques tels des acides phenoxyalcanoiques (herbicides) ou des acides chloroacetiques (sous-produits de chloration des eaux).
40

Hallema, Dennis. "Modélisation de l'impact des terrasses agricoles et du réseau d'écoulement artificiel sur la réponse hydrologique des versants". Thesis, Montpellier, SupAgro, 2011. http://www.theses.fr/2011NSAM0022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'aménagement des versants méditerranéens en terrasses et en fossés avait pour but d'augmenter la surface agricole et de permettre une meilleure gestion de l'eau. La dégradation des terrasses et des drains peut conduire à une augmentation des risques d'inondation, d'érosion et de maintien des cultures. Pour améliorer la connaissance de l'impact réel sur la réponse hydrologique des versants, cette thèse suit différentes approches de modélisation. D'abord la réponse hydrologique d'un bassin versant méditerranéen (0.91 km2) avec des terrasses et des fossés aménagés est simulée à l'aide d'un modèle distribué, événementiel, à base physique, adapté aux bassins versants agricoles. La performance est très satisfaisante pour certains événements simulés, même si le modèle ne tient pas compte des terrasses. Afin de modéliser l'impact des terrasses agricoles et de l'écoulement artificiel, nous avons conçu un nouveau modèle distribué et parcimonieux qui utilise une distribution linéaire du temps de réponse, combiné avec l'hydrogramme unitaire instantané géomorphologique. Les simulations sur des versants et bassins virtuels avec un réseau non-optimal de drainage (non-OCN) montrent que (i) pour de longues interfaces entre une parcelle et un cours d'eau la réponse hydrologique est plus rapide et le débit de pointe plus élevé; (ii) la vitesse du ruissellement de surface a un plus grand impact sur le débit de pointe que la vitesse d'écoulement dans les fossés; et (iii) la densité de drainage accrue combinée avec la création de terrasses résulte en un débit de pointe plus élevé en aval et moins élevé en amont
Terrace cultivation and artificial drainage were implemented on Mediterranean hillslopes for multiple reasons: agricultural terraces increase arable land surface and artificial drainage allows for better water management. Degradation of terraces and channels inevitably leads to an increase in flood risk, erosion and, eventually, crop damage. Little is known about their effect on hillslope hydrologic response, and therefore this thesis presents an integrated method where we compare different modelling approaches. We first simulated the hydrologic response of a Mediterranean catchment (0.91 km2) with terrace cultivation and artificial drainage using a physically-based, fully distributed storm flow model for agricultural catchments. Simulation performance is impressive for some storms, even though the model does not account for terraces. In order to model the effects of terrace cultivation and artificial drainage on hillslope hydrologic response explicitly, we subsequently developed a new distributed model with only geometric and flow velocity parameters, using a linear response time distribution combined with the hillslope geomorphologic instantaneous unit hydrograph. Simulations on virtual hillslopes and catchments with a non-optimal channel network suggest that (i) drainage is faster and attains higher peak flows for longer interface lengths between agricultural fields and drainage channels; (ii) overland flow velocity has greater influence on peak flow than channel flow velocity; and (iii) the combined effect of increased drainage density and introduction of terrace cultivation is enhanced peak flow at the outlet, and a reduction of peak flow from upstream terraces
41

Palpant, Bruno. "Effets de taille dans la réponse optique d'agrégats de métaux nobles en matrice : étude expérimentale et interprétation théorique". Lyon 1, 1998. http://www.theses.fr/1998LYO10214.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les agregats de metaux nobles presentent des proprietes optiques specifiques, caracterisees par l'oscillation collective des electrons de conduction, ou resonance de plasmon de surface, sous l'effet de la lumiere incidente. Ses proprietes dependent de la taille des particules. Le but de cette these est la mise en evidence experimentale et l'interpretation de cette dependance. Dans un premier temps, nous presentons les techniques actuelles d'elaboration de materiaux constitues d'agregats metalliques noyes en matrice transparente. Ensuite, les notions theoriques de base et les modeles phenomenologiques devolus a l'interpretation de la reponse optique de nanoparticules sont introduits. Dans le chapitre 2, nous presentons notre technique d'elaboration, consistant a deposer simultanement sur un substrat les agregats (produits par vaporisation laser) et la matrice. Nous examinons ensuite les resultats des diverses techniques de caracterisation (alpha-step, rbs, met, diffraction et diffusion de rayons x) que nous avons mises en uvre pour determiner l'epaisseur, la composition et la morphologie des couches minces. Le chapitre 3 est consacre a l'etude experimentale de la reponse optique de ces materiaux, par des mesures en ellipsometrie (determination des indices optiques) et en spectrometrie d'absorption. Les effets de taille sont mis en evidence, ainsi que la difference de comportement entre les agregats d'or et d'argent. Les modeles presentes au chapitre 1 sont testes. Dans le chapitre 4, les effets de taille sont interpretes a la lumiere de calculs quantiques dans le formalisme de la tdlda, mettant en evidence l'influence des electrons de cur, de la matrice et de sa porosite sur la resonance de plasmon de surface. Enfin, le dernier chapitre est consacre a l'etude du couplage plasmon-phonon, du point de vue energetique (experiences de spectroscopie raman basse frequence) et dynamique (experiences de spectroscopie laser pompe-sonde en regime femtoseconde).
42

Jan, Gwénaële. "Etude de la réponse des couches de la surface océanique aux forçages atmosphériques avec un modèle à haute résolution verticale". Paris 6, 2001. http://www.theses.fr/2001PA066552.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Dantec-Nédélec, Sarah. "Evaluation multi-échelle des bilans d'énergie et d'eau du modèle ORCHIDEE sur la Sibérie et leur réponse à l'évolution du climat". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution naturelle du climat, perturbée depuis les révolutions industrielles, est fortement marquée dans les hautes latitudes en particulier en Sibérie où une anomalie de température de +0.8°C est constatée depuis les années 2000 contre une anomalie moyenne de +0.4°C pour les moyennes latitudes. La Sibérie est couverte par des pergélisols lui conférant ainsi des particularités, notamment pour les régimes hydrologiques des rivières. Les projections climatiques prédisant jusqu'à un réchauffement de l'ordre de +5°C d'ici 2100, il est primordial d'en évaluer les impacts. La modélisation numérique à bases physiques s'avère être un outil intéressant pour répondre à ces questions. Ainsi, afin d'évaluer la réponse hydrologique au changement climatique en Sibérie nous avons travaillé sur l'évaluation multi-échelles des bilans d'énergie et d'eau avec le modèle ORCHIDEE. Ce modèle a été adapté aux caractéristiques des milieux froids, avec une amélioration de la représentation de la neige, une prise en compte du gel de l'eau du sol et une carte de végétation plus représentative de la végétation sibérienne. Une évaluation en mode forcé i.e. sans couplage avec l'atmosphère a été menée dans un premier temps. Ainsi, nous avons évalué ORCHIDEE au temps présent (1979-2009) à l'échelle du site en nous concentrant sur les données d'humidité et de température du sol dont nous disposions. Une analyse de sensibilité du modèle nous a permis d'identifier les paramètres les plus influents sur les bilans d'énergie et d'eau dans le sol. Leur étalonnage sur sites nous a permis de montrer que le modèle ORCHIDEE est capable de simuler correctement les transferts verticaux de chaleur et d'eau et les contenus en eau et températures du sol résultants. Par la suite nous avons étendu l'évaluation à la région de la Sibérie en confrontant nos résultats de simulation à des produits satellitaires, permettant une évaluation sur une série temporelle conséquente et sur une grande zone. Nous avons rassemblé un grand nombre d'observations telles que des données d'albédo, d'équivalent en eau pour la neige..., auxquelles nous avons comparé nos résultats de simulation. Ce travail nous a permis de montrer que le modèle simule de façon satisfaisante les bilans d'énergie et d'eau en Sibérie, mais aussi de mettre en avant l'importance du choix du forçage climatique. Ainsi, l'utilisation d'un second forçage climatique nous a permis de montrer l'importance du partitionnement pluie/neige ainsi que la sous-estimation possible des précipitations dans les forçages. Le modèle validé a été utilisé ensuite pour mener des études d'impacts, en utilisant 2 forçages climatiques sur le temps futur (2005 à 2099) sous scénario d'émission des gaz à effet de serre RCP8.5. Ainsi nous avons pu évaluer la variabilité liée au forçage et l'impact de l'évolution du climat sur les variables des bilans d'énergie et d'eau. Une limite autour de la latitude 60°N a été définie lors de l'analyse des précipitations futures et choisie pour orienter notre analyse selon deux zones de part et d'autre de la limite. Nous avons analysé les cycles saisonniers des variables de surface nous permettant de mettre en évidence les impacts du réchauffement climatique en lien avec l'augmentation de la température de l'air et leurs différences spatiales. Nous avons montré que la fonte du manteau neigeux est plus précoce au Sud et engendre une avance temporelle du pic de crue de printemps pour la Lena et l'Amour. Sur l'Ob et le Ienisseï, des changements ont été aussi montrés (une diminution du débit au cours du temps pour l'Ob et une augmentation pour le Ienisseï, sans changement de phasage temporel), qui pourraient conduire à des impacts socio-économiques importants pour les populations locales. Cette étude nous a également permis de montrer que les nouvelles conditions climatiques sont plus favorables à la végétation. Nous avons montré aussi la cohérence des deux projections climatiques étudiées
The natural evolution of the climate, disturbed since the industrial revolutions, is strongly marked in the high latitudes especially in Siberia where a temperature anomaly of +0.8°C has been observed since the 2000s against an average anomaly of + 0.4°C for The mid-latitudes. Siberia is covered by permafrost, giving it particularities, especially for the hydrological regimes of rivers. Climatic projections predicting up to +5°C warming by 2100, it is essential to evaluate their impacts. Physical-based numerical modeling is an interesting tool to answer these questions. Thus, in order to evaluate the hydrological response to climate change in Siberia we worked on the multi-scale evaluation of energy and water balances with the ORCHIDEE model. This model was adapted to the characteristics of cold environments, with an improvement of the representation of the snow, a consideration of the freezing of the soil water and a map of vegetation more representative of the Siberian vegetation. An evaluation in forced mode i.e. without coupling with the atmosphere was carried out initially. Thus, we evaluated ORCHIDEE at the present time (1979-2009) at the site scale, concentrating on the soil moisture and soil temperature data available. A sensitivity analysis of the model allowed to identify the most influential parameters on the balance of energy and water in the soil. Their on-site calibration allowed to show that the ORCHIDEE model is able to correctly simulate the vertical transfers of heat and water and the resulting water and soil temperature contents. We then extended the evaluation to the Siberian region by comparing simulation results with remote sensing data, allowing an evaluation over a substantial time series and over a large area. We collected a large number of observations such as albedo data, water equivalent for snow ..., on which we compared the simulation results. This work allowed to show that the model simulates satisfactorily the energy and water balance in Siberia, but also to highlight the importance of the choice of climatic forcing. Thus, the use of a second climatic forcing enabled to show the importance of rain/snow partitioning and the possible underestimation of precipitation in forcing. The validated model was then used to carry out impact studies, using 2 climatic forcings on the future time (2005 to 2099) under scenario of emission of greenhouse gases RCP8.5. Thus, we were able to evaluate the variability related to forcing and the impact of climate change on the variables of energy and water balance. A boundary around latitude 60°N has been defined in the analysis of future precipitation and chosen to orient our analysis in two zones on either side of the boundary. We analyzed the seasonal cycles of the surface variables allowing us to highlight the impacts of global warming in relation to the increase in the air temperature and their spatial differences. We have shown that the melting of the snowpack is earlier in the South and generates a temporal advance of the spring flood peak for the Lena and the Amur. On the Ob and Yenisei, changes have also been shown (a decrease in flow over time for the Ob and an increase for the Yenisei, without any change in temporal phasing), which could lead to socio-economic impacts Important for local populations. This study also allowed us to show that the new climatic conditions are more favorable to vegetation. We also showed the coherence of the two climate projections studied
44

Gardes, Laurence. "Méthodologie d'analyse des dysfonctionnements des systèmes pour une meilleure maitrise des risques industriels dans les PME : application au secteur du traitement de surface". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2001. http://tel.archives-ouvertes.fr/tel-00806215.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En application des principes généraux de prévention, développés dans le cadre législatif de la protection des travailleurs, une analyse des risques doit être effectuée dans l'ensemble des installations industrielles. Dans les entreprises de petites et moyennes tailles (PME), ce principe de prévention est très peu appliqué et on peut attribuer en partie cette d'absence d'application au fait que les méthodes d'analyse proposées aux PME ne leur sont pas adaptées. Afin d'évaluer le degré d'adaptation ou d'inadaptation des méthodes existantes, nous avons étudié les caractéristiques des PME puis décidé de tester sur le terrain une méthode d'analyse des risques afin d'observer les blocages survenant à cette occasion. Dans ce but, nous avons alors mis en place dans trois PME de traitement de surface une méthode classique d'analyse des risques (MOSAR), choisie parmi les méthodes issues du mouvement de la sûreté de fonctionnement. Lors de cette phase expérimentale, de nombreux blocages sont apparus à chacune des étapes de l'analyse que sont la modélisation du système à étudier, l'identification des scénarios d'accidents, l'évaluation des risques, leur hiérarchisation et la mise en place de barrières de protection et de prévention. Nous avons analysé alors ces blocages d'apparence disparate et pu attribuer principalement leurs causes à un conflit de valeurs entre PME et institutions de prévention, à l'absence de connaissances de la part des PME des modèles d'apparition et de représentation des risques, et aux problèmes de définition par les institutions de modèles de représentation du risque en adéquation avec ceux des PME. Les pistes d'évolution que nous proposons suite à ces constats permettraient à l'entreprise de mener à bien, dans de meilleures conditions, une démarche complète d'analyse des risques dont le résultat se traduirait par une réduction pérenne de la fréquence et de la gravité des accidents qui la touchent.
45

Alvarado-, Meza Ricardo. "Stratégies de fonctionnalisation pour le développement de biopuces innovantes". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAV030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une pléthore de processus biologiquement pertinents dépend directement de la sécrétion de biomolécules dans le milieu extracellulaire, aux fonctions régulatrices ou composants structurels. L’analyse de processus biologiques complexes nécessite ainsi la mise au point de nouveaux outils de biodétection. Par conséquent, le but de cette thèse est de fournir des stratégies polyvalentes pour la génération de biocapteurs et de biopuces innovants basés sur la Résonance des Plasmons de Surface (SPR). À l’issue de ces travaux, une méthode de photofonctionnalisation indirecte a été mise au point. Ce procédé a permis de générer des micro-réseaux de protéines dans des conditions entièrement aqueuses, et ainsi de préserver la fonctionnalité des protéines greffées. De plus, nous avons créé et évalué une nouvelle biopuce SPR microstructurée pour le suivi en temps réel des sécrétions cellulaires. Cette biopuce microstructurée présente deux phénomènes optiques différents qui peuvent être utilisés pour la détection cellulaire et le suivi de leurs sécrétions. Enfin, de multiples stratégies de fonctionnalisation ont été évaluées pour la conception d’une biopuce SPR nanostructurée à faisceau de fibres optiques. Parmi ces approches, la génération de monocouches photoréactives auto-assemblées a été la plus adaptée à ce système et est en cours d’optimisation. Une fois réalisée, cette biopuce nanostructurée pourrait ouvrir la voie à la poursuite du développement de systèmes prometteurs de biodétection in vivo
A plethora of biologically relevant processes depends directly on the effective secretion of biomolecules, from regulatory molecules to structural components. Thus, the analysis of complex biological processes requires the development of novel biosensing tools. Therefore, the aim of this thesis is to provide versatile strategies for the generation of innovative biosensors and biochips based on Surface Plasmon Resonance (SPR). As a result from this research, an indirect photofunctionalization method was developed. This procedure allowed the generation of protein microarrays in fully aqueous conditions while preserving the functionality of the grafted proteins. Furthermore, we created and evaluated a novel microstructured SPR biochip for real-time monitoring of cellular secretions. This microstructured biochip presents two different optical phenomena which could be used for cell detection and the monitoring of their secretions. Finally, multiple functionalization strategies were evaluated for the conception of a nanostructured fiber-bundle SPR biochip. Among the approaches, the generation of photoreactive self-assembled monolayers was the most adapted to this system and currently is being optimized. Once achieved, this nanostructured biochip could pave the way for further development of promising in vivo biosensing systems
46

Ben, salem Malek. "Model selection and adaptive sampling in surrogate modeling : Kriging and beyond". Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-03097719.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les surfaces de réponses, dites aussi méta-modèles sont généralement utilisées pour remplacer une fonction coûteuse. Ces méta-modèles sont également utilisés pour accélérer l’estimation d’une caractéristique de cette fonction (un optimum, une ligne de niveau, …). Dans ce travail, nous nous sommes intéressés à trois aspects de la méta-modélisation.1/ Il est difficile de choisir le méta-modèle ainsi que ses paramètres les plus appropriés pour un plan d’expérience donné. En effet, il est difficile d'évaluer la qualité d'un méta-modèle sans des données de validation. Nous proposons un critère de qualité de méta-modèle et nous présentons deux algorithmes de sélection en se basant sur ce critère.2/ L’avantage principal de la régression par processus gaussiens (GP) est qu'elle fournit partout une mesure d'incertitude associée à la prédiction. C’est un outil efficace pour construire des stratégies d’échantillonnage séquentiel. Nous proposons un algorithme permettant d'estimer une distribution de prédiction pour n'importe quel méta-modèle, qui permet d’étendre les méthodes d’échantillonnage séquentielles basées sur les GP à tous les méta-modèles. On l'appelle la distribution universelle de prédiction.3/ De nombreux problèmes de conception font appel à un grand nombre de variables ce qui rend l'exploration de l’espace paramétrique difficile. Dans certains cas seules quelques variables sont influentes. Nous proposons un algorithme réalisant simultanément l'apprentissage d'une caractéristique et la réduction de dimension. La méthode est basée sur des résultats théoriques issus du cadre de la régression par processus gaussien. Notre méthode s'appelle l’algorithme Split-and-Doubt
Surrogate models are used to replace an expensive-to-evaluate function to speed-up the estimation of a feature of a given function (optimum, contour line, …). Three aspects of surrogate modeling are studied in the work:1/ We proposed two surrogate model selection algorithms. They are based on a novel criterion called the penalized predictive score. 2/ The main advantage of probabilistic approach is that it provides a measure of uncertainty associated with the prediction. This uncertainty is an efficient tool to construct strategies for various problems such as prediction enhancement, optimization or inversion. We defined a universal approach for uncertainty quantification that could be applied for any surrogate model. It is based on a weighted empirical probability measure supported by cross-validation sub-models’ predictions.3/ We present the so-called Split-and-Doubt algorithm that performs sequentially both feature estimation and dimension reduction
47

Dubois, Florentine. "Une méthodologie de conception de modèles analytiques de surface et de puissance de réseaux sur puce hautement paramétriques basée sur une méthode d'apprentissage automatique". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00877956.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux sur puces (SoCs - Networks-on-chip) sont apparus durant la dernière décennie en tant que solution flexible et efficace pour interconnecter le nombre toujours croissant d'éléments inclus dans les systèmes sur puces (SoCs - Systems-on-chip). Les réseaux sur puces sont en mesure de répondre aux besoins grandissants en bande-passante et en scalabilité tout en respectant des contraintes fortes de performances. Cependant, ils sont habituellement caractérisés par un grand nombre de paramètres architecturaux et d'implémentation qui forment un vaste espace de conception. Dans ces conditions, trouver une architecture de NoC adaptée aux besoins d'une plateforme précise est un problème difficile. De plus, la plupart des grands choix architecturaux (topologie, routage, qualité de service) sont généralement faits au niveau architectural durant les premières étapes du flot de conception, mais mesurer les effets de ces décisions majeures sur les performances finales du système est complexe à un tel niveau d'abstraction. Les analyses statiques (méthodes non basées sur des simulations) sont apparues pour répondre à ce besoin en méthodes d'estimations des performances des SoCs fiables et disponibles rapidement dans le flot de conception. Au vu du haut niveau d'abstraction utilisé, il est irréaliste de s'attendre à une estimation précise des performances et coûts de la puce finale. L'objectif principal est alors la fidélité (caractérisation des grandes tendances d'une métrique permettant une comparaison équitable des alternatives) plutôt que la précision. Cette thèse propose une méthodologie de modélisation pour concevoir des analyses statiques des coûts des composants des NoCs. La méthode proposée est principalement orientée vers la généralité. En particulier, aucune hypothèse n'est faite ni sur le nombre de paramètres des composants ni sur la nature des dépendances de la métrique considérée sur ces mêmes paramètres. Nous sommes alors en mesure de modéliser des composants proposant des millions de possibilités de configurations (ordre de 1e+30 possibilités de configurations) et d'estimer le coût de réseaux sur puce composés d'un grand nombre de ces composants au niveau architectural. Il est complexe de modéliser ce type de composants avec des modèles analytiques expérimentaux à cause du trop grand nombre de possibilités de configurations. Nous proposons donc un flot entièrement automatisé qui peut être appliqué tel quel à n'importe quelles architectures et technologies. Le flot produit des prédicteurs de coûts des composants des réseaux sur puce capables d'estimer les différentes métriques pour n'importe quelles configurations de l'espace de conception en quelques secondes. Le flot conçoit des modèles analytiques à grains fins sur la base de résultats obtenus au niveau porte et d'une méthode d'apprentissage automatique. Il est alors capable de concevoir des modèles présentant une meilleure fidélité que les méthodes basées uniquement sur des théories mathématiques tout en conservant leurs qualités principales (basse complexité, disponibilité précoce). Nous proposons d'utiliser une méthode d'interpolation basée sur la théorie de Kriging. La théorie de Kriging permet de minimiser le nombre d'exécutions du flot d'implémentation nécessaires à la modélisation tout en caractérisant le comportement des métriques à la fois localement et globalement dans l'espace. La méthode est appliquée pour modéliser la surface logique des composants clés des réseaux sur puces. L'inclusion du trafic dans la méthode est ensuite traitée et un modèle de puissance statique et dynamique moyenne des routeurs est conçu sur cette base.
48

Dubois, Florentine. "Une méthodologie de conception de modèles analytiques de surface et de puissance de réseaux sur puce hautement paramétriques basée sur une méthode d’apprentissage automatique". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux sur puces (SoCs - Networks-on-chip) sont apparus durant la dernière décennie en tant que solution flexible et efficace pour interconnecter le nombre toujours croissant d'éléments inclus dans les systèmes sur puces (SoCs - Systems-on-chip). Les réseaux sur puces sont en mesure de répondre aux besoins grandissants en bande-passante et en scalabilité tout en respectant des contraintes fortes de performances. Cependant, ils sont habituellement caractérisés par un grand nombre de paramètres architecturaux et d'implémentation qui forment un vaste espace de conception. Dans ces conditions, trouver une architecture de NoC adaptée aux besoins d'une plateforme précise est un problème difficile. De plus, la plupart des grands choix architecturaux (topologie, routage, qualité de service) sont généralement faits au niveau architectural durant les premières étapes du flot de conception, mais mesurer les effets de ces décisions majeures sur les performances finales du système est complexe à un tel niveau d'abstraction. Les analyses statiques (méthodes non basées sur des simulations) sont apparues pour répondre à ce besoin en méthodes d'estimations des performances des SoCs fiables et disponibles rapidement dans le flot de conception. Au vu du haut niveau d'abstraction utilisé, il est irréaliste de s'attendre à une estimation précise des performances et coûts de la puce finale. L'objectif principal est alors la fidélité (caractérisation des grandes tendances d'une métrique permettant une comparaison équitable des alternatives) plutôt que la précision. Cette thèse propose une méthodologie de modélisation pour concevoir des analyses statiques des coûts des composants des NoCs. La méthode proposée est principalement orientée vers la généralité. En particulier, aucune hypothèse n'est faite ni sur le nombre de paramètres des composants ni sur la nature des dépendances de la métrique considérée sur ces mêmes paramètres. Nous sommes alors en mesure de modéliser des composants proposant des millions de possibilités de configurations (ordre de 1e+30 possibilités de configurations) et d'estimer le coût de réseaux sur puce composés d'un grand nombre de ces composants au niveau architectural. Il est complexe de modéliser ce type de composants avec des modèles analytiques expérimentaux à cause du trop grand nombre de possibilités de configurations. Nous proposons donc un flot entièrement automatisé qui peut être appliqué tel quel à n'importe quelles architectures et technologies. Le flot produit des prédicteurs de coûts des composants des réseaux sur puce capables d'estimer les différentes métriques pour n'importe quelles configurations de l'espace de conception en quelques secondes. Le flot conçoit des modèles analytiques à grains fins sur la base de résultats obtenus au niveau porte et d'une méthode d'apprentissage automatique. Il est alors capable de concevoir des modèles présentant une meilleure fidélité que les méthodes basées uniquement sur des théories mathématiques tout en conservant leurs qualités principales (basse complexité, disponibilité précoce). Nous proposons d'utiliser une méthode d'interpolation basée sur la théorie de Kriging. La théorie de Kriging permet de minimiser le nombre d'exécutions du flot d'implémentation nécessaires à la modélisation tout en caractérisant le comportement des métriques à la fois localement et globalement dans l'espace. La méthode est appliquée pour modéliser la surface logique des composants clés des réseaux sur puces. L'inclusion du trafic dans la méthode est ensuite traitée et un modèle de puissance statique et dynamique moyenne des routeurs est conçu sur cette base
In the last decade, Networks-on-chip (NoCs) have emerged as an efficient and flexible interconnect solution to handle the increasing number of processing elements included in Systems-on-chip (SoCs). NoCs are able to handle high-bandwidth and scalability needs under tight performance constraints. However, they are usually characterized by a large number of architectural and implementation parameters, resulting in a vast design space. In these conditions, finding a suitable NoC architecture for specific platform needs is a challenging issue. Moreover, most of main design decisions (e.g. topology, routing scheme, quality of service) are usually made at architectural-level during the first steps of the design flow, but measuring the effects of these decisions on the final implementation at such high level of abstraction is complex. Static analysis (i.e. non-simulation-based methods) has emerged to fulfill this need of reliable performance and cost estimation methods available early in the design flow. As the level of abstraction of static analysis is high, it is unrealistic to expect an accurate estimation of the performance or cost of the chip. Fidelity (i.e. characterization of the main tendencies of a metric) is thus the main objective rather than accuracy. This thesis proposes a modeling methodology to design static cost analysis of NoC components. The proposed method is mainly oriented towards generality. In particular, no assumption is made neither on the number of parameters of the components nor on the dependences of the modeled metric on these parameters. We are then able to address components with millions of configurations possibilities (order of 1e+30 configuration possibilities) and to estimate cost of complex NoCs composed of a large number of these components at architectural-level. It is difficult to model that kind of components with experimental analytical models due to the huge number of configuration possibilities. We thus propose a fully-automated modeling flow which can be applied directly to any architecture and technology. The output of the flow is a NoC component cost predictor able to estimate a metric of interest for any configuration of the design space in few seconds. The flow builds fine-grained analytical models on the basis of gate-level results and a machine-learning method. It is then able to design models with a better fidelity than purely-mathematical methods while preserving their main qualities (i.e. low complexity, early availability). Moreover, it is also able to take into account the effects of the technology on the performance. We propose to use an interpolation method based on Kriging theory. By using Kriging methodology, the number of implementation flow runs required in the modeling process is minimized and the main characteristics of the metrics in space are modeled both globally and locally. The method is applied to model logic area of key NoC components. The inclusion of traffic is then addressed and a NoC router leakage and average dynamic power model is designed on this basis
49

Guillon, Delphine. "Assistance à l’élaboration d’offres du produit au service : proposition d’un modèle générique centré connaissances et d’une méthodologie de déploiement et d’exploitation". Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2019. http://www.theses.fr/2019EMAC0005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire s’inscrivent dans une problématique d’aide à l’élaboration d’offres, en adoptant le point de vue de l’entreprise soumissionnaire lors d’un processus de réponse à appel d’offres. Ces offres peuvent concerner indifféremment des produits, des services ou des systèmes produit-service (PSS). Dans le cadre de nos travaux, nous regroupons cette diversité sous le terme « PvSS ». Nous nous intéressons donc à la problématique suivante : «Comment maîtriser et assister l’élaboration d’offres en réponse à appel d’offres ?». Notre première contribution consiste en un cadre de modélisation et d’exploitation des connaissances. Ce cadre est composé d’un modèle générique de structure d’offre, ainsi que d’un modèle d’exploitation des connaissances. Le modèle générique de structure d’offre permet de modéliser à la fois (1) la solution technique (ce que l’entreprise propose au client) et (2) son processus de réalisation (comment l’entreprise fournit cette solution). Il intègre également les notions de contexte d’élaboration, d’exigences client, d’indicateurs d’évaluation (coût, délai de réalisation, confiance, etc.) et de risques. Ce modèle est formalisé et exploité à l’aide d’une taxonomie, d’un problème de satisfaction de contraintes (CSP) et de raisonnement à partir de cas (CBR). Notre deuxième contribution porte sur la caractérisation d’une méthodologie de déploiement et d’exploitation du cadre proposé. Cette méthodologie, appelée ISIEM, intègre des phases d’adaptation et de déploiement du cadre en entreprise (phases d’Initialisation, Spécialisation et Implémentation), mais également des phases d’utilisation (phases d’Exploitation et Mise à jour). Les travaux présentés dans ce mémoire s’inscrivent dans le cadre du projet ANR OPERA. Nos deux contributions sont illustrées par un cas d’étude provenant de l’une des entreprises partenaires du projet
The work presented in this thesis deals with assistance in bid elaboration, by adopting the point of view of the bidder during a tendering response process. These bids may concern products, services or product-service systems (PSS). As part of our work, we group this diversity under the term“PvSS”. We are therefore interested in the following problem: “How to master and assist in bid elaboration in response to calls for tenders?”. Our first contribution is a framework for modelling and exploiting knowledge. This framework is composed of a generic model of bid structure, as well as a knowledge exploitation model. The generic model of bid structure allows the modelling of both (1) the technical solution (what the company proposes to the customer) and (2) its realization process (how the company provides this solution to the customer). It also integrates the elaboration context, customer requirements, the evaluation indicators (cost, delivery time, confidence, etc.) and risks. This model is formalized and exploited using a taxonomy, a constraint satisfaction problem (CSP) and case-based reasoning (CBR). Our second contribution deals with the characterization of a methodology for deploying and exploiting the proposed framework. This methodology, called ISIEM, includes phases of adaptation and deployment of the framework in enterprise (Initialization, Specialization and Implementation phases), but also phases of use (Exploitation and Maintenance phases). The work presented in this thesis is part of the ANR OPERA project. Our two contributions are illustrated by a case study from one of the project’s partner companies
50

Hermitte, Laurence. "Corrélation des propriétés physico-chimiques de biopolymères à la réponse cellulaire : Contribution à l'élaboration de nouveaux implants anti-cataracte secondaire". Ecully, Ecole centrale de Lyon, 2002. http://www.theses.fr/2002ECDL0015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
"Les capacités d'adhésion et de prolifération des cellules épithéliales cristalliniennes restantes après la chirurgie de la cataracte peuvent induire une cataracte secondaire. Cette pathologie post-opératoire entraîne une nouvelle perte d'acuité visuelle pour le patient. La caractérisation physico-chimique des surfaces prothétiques a souligné l'existence de propriétés qui différencient des matériaux de composition chimique parfois très proche. Parallèlement, la mise au point d'un test in vitro simple et sensible a permis de confirmer l'influence de la formulation du matériau sur le délai et le degré d'apparition de la cataracte secondaire. A partir des données physico-chimiques et biologiques obtenues, nous avons identifié des paramètres clefs de surface influençant la réponse biologique: le caractère hydrophile/hydrophobe, les propriétés électriques et la mobilité des chaînes polymériques. Les corrélations dégagées entre les propriétés physico-chimiques des polymères et le comportement cellulaire ont permis d'initier le développement d'une nouvelle lentille "anti-cataracte secondaire" performante. La première voie d'approche consiste à synthétiser un hydrogel contenant des fonctions carboxylates. Les premiers résultats ont confirmé les corrélations précédemment établies entre mouillabilité ou potentiel dzéta et réponse cellulaire. Les produits obtenus sont biofonctionnels et permettraient de réduire les risques d'apparition d'une cataracte secondaire. La seconde approche correspond à la réalisation d'un revêtement de surface HEMA/MAA sur une lentille hydrogel. Les prothèses obtenues cumulent d'excellentes propriétés mécaniques, anti-cataracte secondaire, et d'injectabilité. "
Adhesion and proliferation of lens epithelial cells remaining in the capsular bag after cataract surgery can generate a secondary cataract. This post-operative pathology induces a new loss of visual acuity. Physico-chemical characterisation of synthetic surfaces has shown the existence of properties that discriminate materials having sometimes a quite close chemical structure. An in vitro test, simple and sensitive, has confirmed the influence of the polymer chemical formula on the delay and degree of secondary cataract apparition. Thanks to these complementary studies, we have identified surface parameters that play a major role on biological response : hydrophilic/hydrophobic ratio, electrical properties, and polymeric chain mobility. The correlations found between polymer physico-chemical properties and cell behaviour allowed us to initiale the development of an efficient anti-secondary caratact lens. The first approach consists in the elaboration of an hydrogel containing carboxylates groups. The results have confirmed previously established correlations between dzeta potentiel or hydophilicity and cell response. The second approach is the grafting of HEMA/MAA oligomers on an hydrogel lens. These new prostheses are injectable and combine good mechanical properties and anti-secondary cataract activity

Vai alla bibliografia