Dissertations / Theses on the topic 'PCR methodologies'

To see the other types of publications on this topic, follow the link: PCR methodologies.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'PCR methodologies.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Krallis, Myrsini. "Isolation and identification of Beta-Lactam Producing Microorganisms using PCR based methodologies." Thesis, Rhodes University, 1997. http://hdl.handle.net/10962/d1018237.

Full text
Abstract:
The polymerase chain reaction (PCR) was investigated as a potential tool in microbial screening for 13-lactam. producing organisms. Optimization of PCR conditions and the addition of acetamide to the PCR reaction allowed for the successful amplification of the isopenicillin N synthetase (lPNS) gene in S. clavuligerus, S. tanashiensis, S. griseus, S. olivaceus, S. lipmanii, and S. chartreusis. PCR was used to produce a radiolabelled probe from S. clavuligerus that was used to detect analogous genes in bacteria and fungi. Southern blot and dot blot analysis using the lPNS probe revealed the presence of IPNS-like sequences in seventeen organisms. Fourteen of these sequences belonged to known 13-lactam. producing organisms; one unidentified soil isolate; and two non-/3-lactam. producing organisms viz. S. venezuelae ATCC 10712 and S. hygroscopicus ATCC 21703. The lPNS gene was also detected in a 13-lactam producer (S. chartreusis) that had lost its ability to produce antibiotic. It would therefore have been overlooked in a conventional antibiotic screening program. The use of PCR, coupled with Southern hybridization and dot blot analysis, increased the sensitivity and specificity of the antibiotic screening procedures and allowed for the investigation of evolutionary relationships between the eukaryotes and the prokaryotes. A preliminary investigation into the potential use of RAPD PCR and protein fmgerprinting as tools for solving discrepancies in streptomycete identification was conducted. A variety of streptomycete species that were chosen as being representative of a number of numerical taxonomic classes were amplified using various RAPD primers. Streptomycetes appear to be genetically diverse organisms as was reflected by their RAPD and protein profiles. The application of PCR in an antibiotic screening program showed great potential as a specific and sensitive tool in the detection of /3-lactam producers and in the elimination of duplicate strains.
APA, Harvard, Vancouver, ISO, and other styles
2

Anderson, Phelue Nigel. "The use of PCR-based methodologies to characterize salmonella serotypes of poultry origin." [College Station, Tex. : Texas A&M University, 2008. http://hdl.handle.net/1969.1/ETD-TAMU-3045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

McClean, Jennifer Natalie. "Novel isothermal PCR methodologies for the selective detection and analysis of microorganisms in environmental samples." Thesis, Queen's University Belfast, 2011. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.557957.

Full text
Abstract:
SUMMARY (To be printed on this form) Phosphoramidite derivatives of a nucleoside analogue bearing photoswitchable ortho, meta and para-azobenzene moieties were synthesized and used to incorporate the photoswitchable azobenzene group proximal to the 5' and 3' ends of deoxyoligonucIeotide primers (12mers) of the glyceraldehydes-3-phosphate dehydrogenase (GAPDH) gene. The photochemical E~Z isomerisation of azobenzene appended primers was investigated by UV/vis spectroscopy and RP-HPLC. Melting studies were also performed to determine the Tm of the primers. Isothermal primer extension reactions were performed with Klenow fragment at the dark- adapted and irradiated photo stationary states. This revealed that only the para-azobenzene perturbed the extension by the enzyme. Further investigation with time course experiments to determine a yield using fluorescent fluorescein label and explore the possibility of photoswitchable DNA amplification using the para-azobenzene primers. OligonucIeotides bearing a novel photoswitchable moiety, phenylazopyridine, have been prepared. Directed Michaelis-Arbuzov reactions of support-bound internucleotide phosphite triesters with alkane-diamines were effected in the presence of iodine. The primary amine functionalised oligonucleotides were subsequently purified trityl on. This enabled resolution offast- and slow-isomers of oligomers.
APA, Harvard, Vancouver, ISO, and other styles
4

Gyarmati, Péter. "Implementation of molecular detection techniques in the field of veterinary virology : with special reference to the ligation-based methodologies /." Uppsala : Department of Biomedical Sciences and Veterinary Public Health, Swedish University of Agricultural Sciences, 2008. http://epsilon.slu.se/200883.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Carrasco, Miguel. "Non-calibrated multiple views : applications and methodologies." Paris 6, 2010. http://www.theses.fr/2010PA066015.

Full text
Abstract:
La recherche de modèles d’intérêt contenus dans des séquences de vues multiples d’une scène reste l’un des principaux problèmes de la vision par ordinateur actuellement. En dépit des grands progrès observés au cours des 40 dernières années, la vision par ordinateur ne parvient pas encore à répondre adéquatement quant à la manière d’inférer et de détecter des modèles d’intérêt dans des scènes pour lesquelles un ou plusieurs objet(s) sont vus depuis différents points de vue. Afin de surmonter ce probléme, cette thèse propose de nouveaux algorithmes et prototypes capables de caractériser, d’inférer et de détecter des modèles d’intérêt en séquences avec des vues multiples de manière non calibrée, c’est-à-dire sans connaissance à priori de la position du/des objet(s) par rapport à la (aux) caméra(s). Le travail réalisé s’articule autour de trois axes, divisés en six articles qui constituent le corps de la thèse. (1) L’analyse de correspondances point-par-point à travers de marqueurs explicites et implicites sur les objets. (2) L’estimation de correspondances point-par-point à travers de multiples relations géométriques indépendantes du/des objet(s) qui composent la scène. (3) La prédiction du flux dynamique du déplacement généré par le mouvement de la caméra autour de l’objet. L’objectif principal de cette thèse est d’appuyer la prise de décision à travers d’une analyse dynamique et/ou géométrique du mouvement du/des objet(s) ou de la (des) caméra(s) pendant que ceux-ci se déplacent. Grâce à cette analyse, il est possible d’accroître l’information sur la scène et l’(les) ob jet(s) à travers d’un processus inférenciel spécifique pour chaque cas. Il ressort des thématiques exposées qu’il est possible, par exemple, d’assister le processus d’inspection réalisé par un opérateur humain, de déterminer la qualité d’un produit de manière autonome, ou d’exécuter une action spécifique dans un acteur robotique. Bien que ces thématiques présentent des approches différentes, celles-ci ont le même ensemble de pas en ce qui concerne: (1) la détermination de la relation de correspondance de points ou de régions sur plusieurs images, (2) la détermination de la relation géométrique et/ou dynamique existante entre les correspondances estimées précédemment, (3) l’inférence de nouvelles relations sur les points dont la correspondance est inconnue en vue de caractériser le mouvement. Les variations les plus fortes correspondent à la manière dont la correspondance est estimée; au calcul de la dynamique et la géométrie entre les points correspondants; et enfin à la manière dont nous inférons une action particulière suite à un mouvement spécifique. Parmi les principaux résultats, on trouve le développement d’une méthodologie d’inspection non calibrée à vues multiples appliquée à l’analyse de la qualité des jantes de véhicules, le développement d’un prototype fonctionnel appliqué à l’inspection des cols de bouteilles de vin, une méthodologie de correspondance point par point géométrique capable de résoudre le problème de correspondance en deux et trois vues pour tout point d’intérêt, et enfin la reconnaissance de l’intention humaine pour les tâches de “grasping” à travers de l’analyse du mouvement des yeux et de la main. À l’avenir, il restera encore à analyser les correspondances dynamiques à travers de caractéristiques invariantes, employer des méthodes d’analyse géométriques en séquences d’images radiologiques, et utiliser des modèles de détection d’intentions pour évaluer la qualité des objets.
APA, Harvard, Vancouver, ISO, and other styles
6

Decock, Jérémie. "Hybridization of dynamic optimization methodologies." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112359/document.

Full text
Abstract:
Dans ce manuscrit de thèse, mes travaux portent sur la combinaison de méthodes pour la prise de décision séquentielle (plusieurs étapes de décision corrélées) dans des environnements complexes et incertains. Les méthodes mises au point sont essentiellement appliquées à des problèmes de gestion et de production d'électricité tels que l'optimisation de la gestion des stocks d'énergie dans un parc de production pour anticiper au mieux la fluctuation de la consommation des clients.Le manuscrit comporte 7 chapitres regroupés en 4 parties : Partie I, « Introduction générale », Partie II, « État de l'art », Partie III, « Contributions » et Partie IV, « Conclusion générale ».Le premier chapitre (Partie I) introduit le contexte et les motivations de mes travaux, à savoir la résolution de problèmes d' « Unit commitment », c'est à dire l'optimisation des stratégies de gestion de stocks d'énergie dans les parcs de production d'énergie. Les particularités et les difficultés sous-jacentes à ces problèmes sont décrites ainsi que le cadre de travail et les notations utilisées dans la suite du manuscrit.Le second chapitre (Partie II) dresse un état de l'art des méthodes les plus classiques utilisées pour la résolution de problèmes de prise de décision séquentielle dans des environnements incertains. Ce chapitre introduit des concepts nécessaires à la bonne compréhension des chapitres suivants (notamment le chapitre 4). Les méthodes de programmation dynamique classiques et les méthodes de recherche de politique directe y sont présentées.Le 3e chapitre (Partie II) prolonge le précédent en dressant un état de l'art des principales méthodes d’optimisation spécifiquement adaptées à la gestion des parcs de production d'énergie et à leurs subtilités. Ce chapitre présente entre autre les méthodes MPC (Model Predictive Control), SDP (Stochastic Dynamic Programming) et SDDP (Stochastic Dual Dynamic Programming) avec pour chacune leurs particularités, leurs avantages et leurs limites. Ce chapitre complète le précédent en introduisant d'autres concepts nécessaires à la bonne compréhension de la suite du manuscrit.Le 4e chapitre (Partie III) contient la principale contribution de ma thèse : un nouvel algorithme appelé « Direct Value Search » (DVS) créé pour résoudre des problèmes de prise de décision séquentielle de grande échelle en milieu incertain avec une application directe aux problèmes d' « Unit commitment ». Ce chapitre décrit en quoi ce nouvel algorithme dépasse les méthodes classiques présentées dans le 3e chapitre. Cet algorithme innove notamment par sa capacité à traiter des grands espaces d'actions contraints dans un cadre non-linéaire, avec un grand nombre de variables d'état et sans hypothèse particulière quant aux aléas du système optimisé (c'est à dire applicable sur des problèmes où les aléas ne sont pas nécessairement Markovien).Le 5e chapitre (Partie III) est consacré à un concept clé de DVS : l'optimisation bruitée. Ce chapitre expose une nouvelle borne théorique sur la vitesse de convergence des algorithmes d'optimisation appliqués à des problèmes bruités vérifiant certaines hypothèses données. Des méthodes de réduction de variance sont également étudiées et appliquées à DVS pour accélérer sensiblement sa vitesse de convergence.Le 6e chapitre (Partie III) décrit un résultat mathématique sur la vitesse de convergence linéaire d’un algorithme évolutionnaire appliqué à une famille de fonctions non quasi-convexes. Dans ce chapitres, il est prouvé que sous certaines hypothèses peu restrictives sur la famille de fonctions considérée, l'algorithme présenté atteint une vitesse de convergence linéaire.Le 7e chapitre (Partie IV) conclut ce manuscrit en résumant mes contributions et en dressant quelques pistes de recherche intéressantes à explorer
This thesis is dedicated to sequential decision making (also known as multistage optimization) in uncertain complex environments. Studied algorithms are essentially applied to electricity production ("Unit Commitment" problems) and energy stock management (hydropower), in front of stochastic demand and water inflows. The manuscript is divided in 7 chapters and 4 parts: Part I, "General Introduction", Part II, "Background Review", Part III, "Contributions" and Part IV, "General Conclusion". This first chapter (Part I) introduces the context and motivation of our work, namely energy stock management. "Unit Commitment" (UC) problems are a classical example of "Sequential Decision Making" problem (SDM) applied to energy stock management. They are the central application of our work and in this chapter we explain main challenges arising with them (e.g. stochasticity, constraints, curse of dimensionality, ...). Classical frameworks for SDM problems are also introduced and common mistakes arising with them are be discussed. We also emphasize the consequences of these - too often neglected - mistakes and the importance of not underestimating their effects. Along this chapter, fundamental definitions commonly used with SDM problems are described. An overview of our main contributions concludes this first chapter. The second chapter (Part II) is a background review of the most classical algorithms used to solve SDM problems. Since the applications we try to solve are stochastic, we there focus on resolution methods for stochastic problems. We begin our study with classical Dynamic Programming methods to solve "Markov Decision Processes" (a special kind of SDM problems with Markovian random processes). We then introduce "Direct Policy Search", a widely used method in the Reinforcement Learning community. A distinction is be made between "Value Based" and "Policy Based" exploration methods. The third chapter (Part II) extends the previous one by covering the most classical algorithms used to solve UC's subtleties. It contains a state of the art of algorithms commonly used for energy stock management, mainly "Model Predictive Control", "Stochastic Dynamic Programming" and "Stochastic Dual Dynamic Programming". We briefly overview distinctive features and limitations of these methods. The fourth chapter (Part III) presents our main contribution: a new algorithm named "Direct Value Search" (DVS), designed to solve large scale unit commitment problems. We describe how it outperforms classical methods presented in the third chapter. We show that DVS is an "anytime" algorithm (users immediately get approximate results) which can handle large state spaces and large action spaces with non convexity constraints, and without assumption on the random process. Moreover, we explain how DVS can reduce modelling errors and can tackle challenges described in the first chapter, working on the "real" detailed problem without "cast" into a simplified model. Noisy optimisation is a key component of DVS algorithm; the fifth chapter (Part III) is dedicated to it. In this chapter, some theoretical convergence rate are studied and new convergence bounds are proved - under some assumptions and for given families of objective functions. Some variance reduction techniques aimed at improving the convergence rate of graybox noisy optimization problems are studied too in the last part of this chapter. Chapter sixth (Part III) is devoted to non-quasi-convex optimization. We prove that a variant of evolution strategy can reach a log-linear convergence rate with non-quasi-convex objective functions. Finally, the seventh chapter (Part IV) concludes and suggests some directions for future work
APA, Harvard, Vancouver, ISO, and other styles
7

FAUCHER, NICOLAS. "Nouvelles methodologies de marquage par voie organometallique nouvelle synthese de methyle chiral." Paris 11, 2000. http://www.theses.fr/2000PA112242.

Full text
Abstract:
Chapitre i : nouvelle methodologie de marquage par voie organometallique au cours de cette premiere partie, nous avons developpe une nouvelle methodologie de marquage isotopique par le tritium et le deuterium basee sur l'hydrogenolyse de composes organolithies en presence de tritium gaz ou de deuterium gaz. Cette reaction est catalysee par le palladium sur charbon et presente l'interet de permettre le remplacement direct de l'hydrogene par ses isotopes ( 2h ou 3h) sans modification chimique de la molecule a marquer. Totalement regioselective, cette methode a ete transposee en serie chirale par l'utilisation de la (-)-sparteine lors de l'etape de lithiation et offre l'acces a un marquage enantioselectif (ee>90%). Chapitre ii : nouvelle synthese de methyle chiral enantioenrichi dans cette deuxieme partie, nous avons developpe une nouvelle voie d'acces a la ditosylmethylamine chirale a partir de derives d'oxazolidines 4,5-disubstituees. Le deuterium est introduit par substitution diatereoselective du groupement alkoxy d'une 2-alkoxy-oxazolidine en presence d'un deuterure en milieu acide de lewis (ed = 100%). Toujours en conditions acides, l'ouverture stereocontrolee de l'oxazolidine deuteree en position 2 par un hydrure tritie permet l'acces au motif methyle chiral porte par l'azote. Des etapes de deprotection/reprotection conduisent a la ditosylmethylamine avec un ee de l'ordre de 65% (r/s = 83/17). C'est a ce jour la meilleure voie de synthese totalement chimique de ce compose en termes d'enantioselectivite obtenue, de rendement chimique et du nombre d'etapes radioactives. Le caractere de groupe partant du motif nts 2 de la ditosylmethylamine ainsi preparee permet d'envisager l'acces a de nombreuses molecules porteuse du groupement methyle chiral conferant a notre synthese de nombreuses applications possibles en biochimie et en etudes mecanistiques.
APA, Harvard, Vancouver, ISO, and other styles
8

Dekkiche, Djamila. "Programming methodologies for ADAS applications in parallel heterogeneous architectures." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS388/document.

Full text
Abstract:
La vision par ordinateur est primordiale pour la compréhension et l’analyse d’une scène routière afin de construire des systèmes d’aide à la conduite (ADAS) plus intelligents. Cependant, l’implémentation de ces systèmes dans un réel environnement automobile et loin d’être simple. En effet, ces applications nécessitent une haute performance de calcul en plus d’une précision algorithmique. Pour répondre à ces exigences, de nouvelles architectures hétérogènes sont apparues. Elles sont composées de plusieurs unités de traitement avec différentes technologies de calcul parallèle: GPU, accélérateurs dédiés, etc. Pour mieux exploiter les performances de ces architectures, différents langages sont nécessaires en fonction du modèle d’exécution parallèle. Dans cette thèse, nous étudions diverses méthodologies de programmation parallèle. Nous utilisons une étude de cas complexe basée sur la stéréo-vision. Nous présentons les caractéristiques et les limites de chaque approche. Nous évaluons ensuite les outils employés principalement en terme de performances de calcul et de difficulté de programmation. Le retour de ce travail de recherche est crucial pour le développement de futurs algorithmes de traitement d’images en adéquation avec les architectures parallèles avec un meilleur compromis entre les performances de calcul, la précision algorithmique et la difficulté de programmation
Computer Vision (CV) is crucial for understanding and analyzing the driving scene to build more intelligent Advanced Driver Assistance Systems (ADAS). However, implementing CV-based ADAS in a real automotive environment is not straightforward. Indeed, CV algorithms combine the challenges of high computing performance and algorithm accuracy. To respond to these requirements, new heterogeneous circuits are developed. They consist of several processing units with different parallel computing technologies as GPU, dedicated accelerators, etc. To better exploit the performances of such architectures, different languages are required depending on the underlying parallel execution model. In this work, we investigate various parallel programming methodologies based on a complex case study of stereo vision. We introduce the relevant features and limitations of each approach. We evaluate the employed programming tools mainly in terms of computation performances and programming productivity. The feedback of this research is crucial for the development of future CV algorithms in adequacy with parallel architectures with a best compromise between computing performance, algorithm accuracy and programming efforts
APA, Harvard, Vancouver, ISO, and other styles
9

FRALO, NADINE. "Education sanitaire menee en entreprise par le medecin du travail : grands principes, methodologie." Nantes, 1988. http://www.theses.fr/1988NANT065M.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Parameswaran, Sreeja. "Solar Energy Conversion in Plants and Bacteria Studied Using FTIR Difference Spectroscopy and Quantum Chemical Computational Methodologies." Digital Archive @ GSU, 2009. http://digitalarchive.gsu.edu/phy_astr_diss/32.

Full text
Abstract:
This dissertation presents a study of the molecular mechanism underlying the highly efficient solar energy conversion processes that occur in the Photosystem I (PS I) reaction centers in plants and bacteria. The primary electron donor P700 is at the heart of solar energy conversion process in PS I and the aim is to obtain a better understanding of the electronic and structural organization of P700 in the ground and excited states. Static Fourier Transform Infra-Red (FTIR) difference spectroscopy (DS) in combination with site directed mutagenesis and Density Functional Theory (DFT) based vibrational frequency simulations were used to investigate how protein interactions such as histidine ligation and hydrogen bonding modulate this organization. (P700+-P700) FTIR DS at 77K were obtained from a series of mutants from the cyanobacterium Synechocystis sp. 6803 (S. 6803) where the amino acid residues near the C=O groups of the two chlorophylls of P700 where specifically changed. (P700+-P700) FTIR DS was also obtained for a set of mutants from C. reinhardtii where the axial ligand to A0-, the primary electron acceptor in PS I was modified. The FTIR DS obtained from these mutants provides information on the axial ligands, the hydrogen bonding status as well as the polarity of the environment of specific functional groups that are part of the chlorophyll molecules that constitute P700. Assignment of the FTIR bands to vibrational modes in specific types of environment is very difficult. In order to assist the assignment of the difference bands in experimental spectra DFT based vibrational mode frequency calculations were undertaken for Chl-a and Chl-a+ model molecular systems under different set of conditions; in the gas phase, in solvents using the Polarizable Continuum Model (PCM), in the presence of explicit solvent molecules using QM/MM methods, and in the presence of axial ligands and hydrogen bonds. DFT methods were also used to calculate the charge, spin and redox properties of Chl-a/Chl-a’ dimer models that are representative of P700, the primary electron donor in PS I.
APA, Harvard, Vancouver, ISO, and other styles
11

Guitton, Gabrielle. "Design methodologies for multi-mode and multi-standard low-noise amplifiers." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0861/document.

Full text
Abstract:
L'engouement récent pour l'Internet des Objets comme pour les communications satellites entraine des besoins forts en systèmes de communication radio-fréquence (RF) performants. Afin de répondre aux contraintes du marché de masse, ces systèmes doivent être toujours moins encombrants et permettre de maitriser leur consommation de puissance. Ils doivent également être capable d'adresser plusieurs standards de communications et d'ajuster leur performances aux besoins de leur environnement, toujours afin de réduire leur taille et leur consommation. Actuellement, beaucoup de travaux se concentrent sur le développement d'amplificateurs faible-bruits (LNA), le bloc le plus critique des récepteurs RF. L'objectif est donc de concevoir des récepteurs multi-mode et multi-standard. Pour cela, les LNA nécessitent des flots de conception capables de s'adapter aux différentes technologies et topologies afin de répondre à des cahiers des charges très diverses. Cette thèse a donc pour objectif le développement de méthodologies de conception simple et précise pour l'implémentation d'amplificateurs faible bruit.La première méthodologie présentée est dédiée à l'implémentation de LNA en technologie COTS pour des applications spatiales. Ce LNA présente une adaptation large-bande pour adresser plusieurs standards. Il a été conçu pour faire partie d'un récepteur RF dédié aux nano-satellites. Ce dernier a donc fait l'objet d'une étude préliminaire afin de déterminer le cahier des charges à partir des normes des standards visés.La seconde méthodologie est dédiée à l'implémentation de LNA en technologie CMOS pour n'importe quelle type d'applications. Cette méthodologie est d'abord présentée au travers de topologies simples, puis appliquée à un LNA sans inductances à forte linéarité. Cette méthodologie permet notamment de comparer les topologies mais également les technologies CMOS, même les plus avancées telle que la 28 nm FDSOI.Enfin le LNA sans inductances est rendu reconfigurable pour adresser plusieurs standards tout en gardant le dimensionnement optimum obtenu par la méthodologie présentée précédemment. En effet les tailles et polarisation de chaque transistor sont contrôlées numériquement afin d'adapter les performances du LNA à un standard donné. De plus, l'étude de filtres de type N-path combinés au LNA proposé permet d'étendre encore la linéarité du circuit
The recent enthusiasm for the Internet of Objects as well as for satellite communications leads to the need for high-performance radio-frequency (RF) communication systems. In order to meet the constraints of the mass market, these systems must be compact and be as low power as possible. Beside, they are expected to address multiple communication standards and to adjust their performance to the environment, still in order to reduce the size and the power consumption. Currently, many works focus on the development of low-noise amplifiers (LNA), the most critical block of RF receivers. To address this purpose, the goal is to design multi-mode and multi-standard receivers. Hence, LNAs require design flows that can adapt to the different technologies and topologies in order to meet any given set of specifications. This thesis aims at the development of simple and accurate design methodologies for the implementation of low-noise amplifiers.The first proposed methodology is dedicated to the implementation of a LNA in COTS technology for spatial applications. This LNA offers a broadband matching to address several standards. It is designed to be part of an RF receiver for nano-satellites. Thus, the latter is first studied in order to determine the specifications based on the standards of the targeted applications.The second methodology is dedicated to the implementation of LNAs in CMOS technology for any kind of applications. This methodology is first illustrated with basic topologies and then applied to an highly linear inductorless LNA. The design methodology also enables a fair comparison between the topologies and also CMOS technologies, even the most advanced ones such as the 28 nm FDSOI.Finally, reconfigurability is added to the inductorless LNA, to address several standards while retaining the optimum sizing given by the previously introduced methodology. Indeed, the size and polarization of each transistor are digitally controlled in order to adjust the LNA's performance to a given standard. Furthermore, the study of N-path filters combined with the proposed LNA is explored to improve the linearity of the circuit
APA, Harvard, Vancouver, ISO, and other styles
12

BLAISE, DUPUY D'UBY MARIE-PIERRE. "Methodologie des essais therapeutiques chez les sujets infectes par le virus de l'immunodeficience humaine." Nice, 1989. http://www.theses.fr/1989NICE6585.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

DOUGAPARSAD, SAMUEL. "Deracemisation des acides propioniques -aryl substitues par les anticorps catalytiques. Methodologie de dosage de l'exces enantiomerique par anticorps enantioselectifs." Paris 11, 1997. http://www.theses.fr/1997PA112239.

Full text
Abstract:
La deracemisation represente l'ensemble des processus qui permettent de transformer integralement un racemate en un produit enantiomeriquement pur. Nous avons cherche a deracemiser le (rs)-ketoprofene, un anti-inflammatoire derive des acides propioniques -aryl substitues, au moyen d'anticorps catalytiques (abzymes). Notre strategie a implique en partie la preparation d'un anticorps a activite de racemase. Pour cela, nous avons synthetise un antigene charge (sous forme d'ammonium quaternaire) pour induire une charge negative, judicieusement positionnee dans le site actif de l'anticorps, et pouvant etre responsable d'une catalyse basique. A l'issue d'un protocole d'immunisation suivi d'une fusion cellulaire, des anticorps ont ete selectionnes pour leur reconnaissance de l'antigene dependante du ph. Neanmoins, aucune activite de transfert de proton n'a pu etre observee avec les substrats utilises (analogues cetoniques, esters et thioesters de ketoprofene). Ces memes anticorps, dans certains cas, peuvent stabiliser des intermediaires carbocationiques intervenant dans l'hydrolyse d'acetal ou d'epoxyde. Toutefois, malgre une bonne reconnaissance pour ces substrats, aucune acceleration de l'hydrolyse n'a ete observee, dans nos conditions experimentales. Parallelement, nous avons developpe une methode de dosage de l'exces enantiomerique d'un melange d'ester (r+s)-ketoprofene par anticorps monoclonaux enantioselectifs. Cette methode a implique la preparation d'un haptene racemique puis la production et la purification d'anticorps retenus pour leur reconnaissance enantioselective. Certains anticorps, ayant une affinite vingt fois plus elevee pour le (r)-ketoprofene methyl ester, nous ont permis d'etablir une courbe de calibration. Les resultats montrent que ce dosage possede une sensibilite de detection du substrat avoisinant la nanomole.
APA, Harvard, Vancouver, ISO, and other styles
14

Whyte, Jeffrey J. "Methodologies for evaluating planar chlorinated hydrocarbon, PCH, and polycyclic aromatic hydrocarbon, PAH, exposure and bioconcentration in fish." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0006/NQ30659.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

LOUIS, JOSEPH ALAIN. "Nouvelles methodologies en rmn biologique : controle de l'amortissement par radiation (radiation damping) et resonance magnetique nucleaire stochastique." Paris, CNAM, 2000. http://www.theses.fr/2000CNAM0372.

Full text
Abstract:
Le radiation damping est un phenomene bien connu des spectroscopistes rmn. Afin de corriger ses effets negatifs nous avons developpe un systeme electronique de contre-reaction permettant son controle. La modelisation des equations de bloch modifiees avec radiation damping et contre-reaction ainsi que la conception et la realisation de l'electronique font l'objet d'une description detaillee. Des simulations ainsi que de multiples applications experimentales sur des spectrometres a haut champ demontrent de la particuliere efficacite du procede. L'extension du systeme - a l'augmentation de dynamique, a la reduction du temps experimental, a la mise au point de nouvelles sequences de suppression du solvant, a des basculements auto-calibres du solvant, entre autres exemples - ouvre des perspectives interessantes dans la methodologie rmn. A noter qu'une modelisation du phenomene d'amortissement par radiation basee sur un systeme a contre-reaction retardee, est proposee afin d'etablir une equation canonique significative. Enfin, dans le cadre de la suppression du radiation damping uniquement, nous avons developpe une sonde dont on modifie le facteur de qualite (qswitch a fibre optique). La technique d'acquisition de donnees rmn par excitation stochastique (stonmr) est revisitee dans cette these afin d'en analyser les limites et possibilites avec les moyens instrumentaux et informatiques modernes. L'etude et la realisation de l'electronique ainsi que les traitements informatiques necessaires a la mise en uvre de la stonmr sont concus afin d'offrir des outils experimentaux d'analyses puissants et performants. Une etude particuliere est proposee, sur la taille optimale des donnees permettant d'obtenir des spectres 1d de qualite egale
APA, Harvard, Vancouver, ISO, and other styles
16

Guillot, Jean. "Methodologie de definition des ensembles mecaniques en conception assistee par ordinateur : recherche des solutions optimales." Toulouse 3, 1987. http://www.theses.fr/1987TOU30206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Asad, Muhammad. "Elaboration of concepts and methodologies to study peripheral down-cut miling process from macro-to-micro scales." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0058/these.pdf.

Full text
Abstract:
Today, finite element method is a sufficiently developed technique, bringing an indispensable help to the engineers, during design and optimization stages of the engineering products. In certain cases, its role exceeds from the simple technological assistance and makes it possible to consider physical laws in the intimacy of the mediums inaccessible to the experimentation (nuclear fission and fusion, cracks propagation in the materials,…). In this context, the present contribution brings a scientific and technological comprehension of the chip formation process. The investigation of chip genesis is not an aim in itself, but it can inform what actually happens during the process. From experimental and application point of view, the work is focused on the machining of an aeronautic Aluminium alloy A2024-T351. This study has been accomplished with four principle stages. Initially, an orthogonal cutting model for the case of turning process has been established. The work makes it possible to emphasize equally on the discretization level leading to an optimised mesh generation to capture physical phenomenon, as well as on the material behaviour level considering crucial aspects of damage and fracture energy. Onward this model was adapted to the case of the down cut milling (with a null helix angle), where the removed material has a half crescent moon like form, presenting a continuously variable chip thickness tending towards zero (with a constant width). This model makes it possible to distinguish the macroscopic cutting zone from the microscopic one, based on the cut thickness. The well-known size effect phenomenon of micromechanics was thus found during macro to micro cutting passage increasing material strength, due to strain rate hardening characteristics of the material. This phenomenon in machining is well-known and corresponds to the quasi exponential increase in the specific cutting energy with the reduction of the cut thickness. To facilitate the exploitation and to propose a physical tool for better comprehension of the material removal (especially at micro cutting level) to the scientific community and industry, in the third stage modified Johnson-Cook material model (strain gradient-based approach) of the equivalent stress has been formulated in ABAQUS®/EXPLICIT via its user subroutine VUMAT. In spite of the modelling difficulties a complete cutting model integrating the size effect phenomenon has been presented. The aim is to provide a numerical data on the machined surface which can be compared with the experimental results. As it is the microscopic cutting part in high frequency and high speed dynamics domain which generates the machined surface. During the fourth stage, the model was completely developed to simulate the down cut milling of Aluminium alloy A2024-T351. In addition to the size effect relating to the chip, the dynamic aspects relating to the machining system were taken into account through the proposition of a multi level cutting model, named hybrid dynamic cutting model (HDC-model). The proposed model combines the rigidity of a high speed milling machine (tool, tool holder, rotor,…) at the macroscopic level with the mechanics of mesoscopic level chip formation. Finally, turning and milling cutting experiments were carried out to validate the suggested models. The numerical results were compared with experimental ones at each stage. In general the results are in good agreement. It is however necessary to note that a number of parameters can affect the numerical model results. The predictive character of the model is primarily limited to the physical characteristics of the machined material. Under these circumstances one finds itself in the purely experimental investigations of 1970-80s, when the concept of tool material coupling (TMC) was conceived for the very first time. Today’s approach, which is both experimental and numerical, however makes it possible to strongly reduce the costs and to quantify very interesting local phenomena such as for example in this contribution
Aujourd’hui, la méthode des éléments finis est suffisamment développée pour apporter aux ingénieurs, une aide indispensable lors des étapes de conception et d’optimisation des produits manufacturés. Dans certains cas, cette aide dépasse la simple assistance technologique et permet de considérer des lois physiques dans l’intimité d’un milieu inaccessible aux expériences (fission et fusion nucléaire, propagation des fissures dans les matériaux,…). C’est dans ce contexte à la fois scientifique et technologique que porte notre contribution sur la formation du copeau. D’un point de vue applicatif et expérimental, notre étude est centrée sur l’usinage de l’alliage d’Aluminium A2024-T351. Cette étude a été accomplie avec 4 étapes principales. La première étape porte sur la mise au point d’un modèle numérique 2D, de coupe orthogonale en tournage. Ce travail permet de choisir des solutions de détails pour ce modèle numérique, aussi bien au niveau de la discrétisation et de la partition du maillage qu’au niveau du comportement du matériau usiné sur les aspects cruciaux d’endommagement et d’énergie de rupture. Lors de la deuxième étape ce modèle a été adapté au cas du fraisage de profil en avalant avec un angle d’hélice nul, où la matière susceptible d’être enlevée a une forme en demi lune, constant sur sa largeur, présente une épaisseur continûment variable et tendant vers zéro. Ce travail et les résultats obtenus permettent de distinguer la zone de coupe macroscopique de la zone microscopique à partir de l’épaisseur coupée. L’effet de taille bien connu en micromécanique a ainsi été retrouvé lors de ce passage macro-micro à travers l’influence de l’écrouissage due à la vitesse de déformation du matériau. Le phénomène bien connu expérimentalement de l’augmentation quasi exponentielle de l’énergie spécifique de coupe avec la diminution de l’épaisseur coupée a été étudié en relation avec les divers aspects de cet effet de taille. Pour faciliter l’exploitation et proposer un outil de compréhension physique de l’enlèvement de matière à la communauté scientifique et à l’industrie, dans une troisième étape, le modèle de comportement de « Johnson-Cook » modifié par une approche basée sur le second gradient de déformation a été développé dans ABAQUS®/EXPLICIT sous la forme d’un sous programme (ou sous-routine VUMAT). Finalement, au cours de la quatrième étape, l’application a été complètement développée pour simuler le fraisage de profil en avalant, de l’alliage d’Aluminium A2024-T351. En plus de l’effet de taille interne au copeau, les aspects dynamiques liés au comportement du système usinant ont été pris en compte à travers un modèle multi-échelle nommé « modèle dynamique hybride de coupe (HDC-modèle) » qui combine la rigidité équivalente d'une fraiseuse à grande vitesse (outil, porte-outil, broche, …) au niveau macroscopique avec la mécanique de formation de copeau au niveau mésoscopique. Cette application intégrant à la fois les effets d’échelles a pour but de fournir des données numériques sur la surface usinée qui puissent être comparées à des résultats expérimentaux. Malgré les difficultés de modélisation nous avons tenu à élaborer ce modèle complet car c’est bien la partie microscopique de la coupe en dynamique haute fréquence ou grande vitesse qui génère la surface usinée. Pour finir, des coupes expérimentales ont été exécutées en tournage et en fraisage pour valider les modèles proposés. Les résultats numériques sont ainsi comparés à ceux expérimentaux à chacune des étapes. De manière générale la concordance des résultats est bonne. Il faut cependant noter le grand nombre de paramètres des modèles numériques qui certains d’entre eux peuvent être des paramètres de recalage expérimental. Il apparaît donc que le caractère prédictif du modèle est limité essentiellement par les caractéristiques physiques de la matière usinée. On se retrouve dans la situation purement expérimentale des années 1970-80 qui a vu naître la notion de couple outil-matière (COM). L’approche d’aujourd’hui, à la fois expérimentale et numérique permet cependant de réduire fortement les coûts et de quantifier des phénomènes locaux très intéressants comme par exemple dans notre contribution : La propension à la segmentation et donc à la fragmentation dans certaines conditions de coupe, La longueur du contact copeau, face de coupe, l’amplitude des défauts de la surface usinée due à la dynamique globale
APA, Harvard, Vancouver, ISO, and other styles
18

Lundberg, Anders. "Study of different methodologies to determine relative dielectric constant of given substrate using fabrication, modelling and measurement strategies." Thesis, Luleå tekniska universitet, Institutionen för system- och rymdteknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-84338.

Full text
Abstract:
In this thesis, different methods for measuring the relative dielectric constant is investigated using simulations and experimental approaches. The first method is known as the S-parameter inversion method. In this method formulae is used to calculate the characteristic impedance of the microstrip line from measured S-parameters. To calculate the value of relative dielectric constant, four expressions for the microstrip line that relate the characteristic impedance to the relative dielectric constant were used. Second method uses an implementation of a band-pass filter and is commonly known as the band-pass filter method. In this method, a band-pass microstrip filter was designed using a predicted relative dielectric constant value. Center frequency of the band-pass filter is chosen to be at the frequency of interest, since relative dielectric constant will be determined around this frequency. The designed band-pass filter was manufactured and the frequency response was measured. To determine the true relative dielectric constant one changes the relative dielectric constant parameter used in the simulation until it matches the measured response of the manufactured PCB. Third method is called the quarter wavelength stub method. It uses implementations of a microstrip quarter wavelength stub because it resonance at different frequencies. The relative dielectric constant is determined using the frequencies on which the reflection occurred. In the fourth method, called the two microstrip line method, two lines of different lengths were designed and the phase difference between the propagating waves were measured. The phase difference and difference in length of the two lines is then used to calculate the relative dielectric constant. The thesis shows that a majority of the methods generates a similar result, thus indicates that they are suitable to determine the relative dielectric constant of any given substrate. The two methods that gave the most accurate results are the quarter wavelength stub method and the band-pass filter method. S-parameter inversion method is the method that has high variations in the results. Since the characteristic impedance that is calculated using the S-parameters are sensitive towards any sort of disturbances. The resulting relative dielectric constant aren't within the expected range for FR-4 both higher and lower values were obtained. The band-pass filter method gives the most accurate results of the methods. As the resulting relative dielectric constant are within the expected range for FR-4. Quarter wavelength stub method gives the results of the relative dielectric constant that are within the expected values of FR-4 and the variation is moderate. Two microstrip line method shows deviations in the results and has non-linearity as well. This is probably coming due to resonance of the line that gives rise to a phase change. This method is also acceptable since the results of the relative dielectric constant are within the expected range for FR-4.
APA, Harvard, Vancouver, ISO, and other styles
19

Gelormini, Christophe. "Optimisation des propriétés germinatives des graines de colza par initialisation : aspects méthodologiques et fondamentaux." Rennes 1, 1995. http://www.theses.fr/1995REN10101.

Full text
Abstract:
Une etude est realisee sur plusieurs lots de graines de differentes varietes commerciales de colza (brassica napus l. ) dans le but d'ameliorer par differents traitements leur vigueur germinative. Les tests de germination realises en conditions standards ne permettent pas de reveler cette vigueur. Differentes epreuves penalisantes appliquees avant ou pendant la germination des graines donnent acces a leurs reelles qualites germinatives. La germination realisee a temperature infra-optimale ou le vieillissement accelere des graines permettent de discriminer entre les differents lots, que ceux-ci soient pellicules ou non. Le pelliculage lui-meme affecte negativement les qualites germinatives et l'elimination du revetement correspondant peut restituer une partie des proprietes perdues. La diminution de la valeur germinative au cours de la conservation est imputee pour une part a la nature meme de certains constituants du pelliculage tel l'oftanol et d'autre part au passe des graines. La teneur des graines en proline libre est representative du niveau d'imbibition de la graine. Comme celle des galactosides elle augmente lorsque les proprietes germinatives sont remises en cause. Les teneurs de ces composes pourraient donc etre utilisees comme des indicateurs de la valeur germinative des graines de colza. La vigueur germinative peut etre amelioree par osmoconditionnement avec d'autant plus d'efficacite que la vigueur initiale est faible. Les osmoconditionnements en boite de petri ou en colonne aeree se revelent efficaces pour des traitements n'excedant pas une semaine effectues a l'aide d'une solution de peg 6000 de potentiel -15 bars. Les solutions de glycerol, de mannitol et les solutions salines de meme potentiel se revelent inutilisables pour initialiser osmotiquement les graines de colza. L'initialisation en matrice solide est aussi efficace que l'osmoconditionnement quant a l'acceleration de la vitesse de la germination et a l'augmentation de la faculte germinative. Le benefice de l'initialisation osmotique est conserve pendant les 10 mois qui suivent le traitement. Des essais preliminaires realises au champ a l'aide de graines osmoconditionnees suggerent qu'elles ont une emergence acceleree conduisant a un taux final d'implantation accru. Des effets favorisants sur le rendement sont egalement perceptibles. Il reste a les confirmer par des experiences complementaires. Sur le plan physiologique les traitements d'initialisation realises ne semblent pas provoquer des effets relevant de processus pregerminatifs. Ils ont pour consequence l'acceleration de la prise d'eau par les graines lors de l'imbibition, l'augmentation de la teneur en proline libre et l'hydrolyse d'une partie des facteurs antinutritionnels constitues par la sinapine et les glucosinolates. Le raffinose et le stachyose sont metabolises au cours de l'initialisation osmotique alors que le saccharose n'est pas consomme. Il parait desormais envisageable de valoriser sur le plan industriel la technique d'osmoconditionnement et celle d'initialisation en matrice solide humectee testees au laboratoire
APA, Harvard, Vancouver, ISO, and other styles
20

ZORGATI, WALID. "Developpement des procedures de mineralisation des aliments assistee par les micro-ondes : approches methodologiques." Paris, Institut national d'agronomie de Paris Grignon, 2000. http://www.theses.fr/2000INAP0010.

Full text
Abstract:
L'objectif de ce travail de these est d'etudier les conditions de la mineralisation kjeldahl par l'application de methodes chimiometriques. La premiere partie consiste a detecter l'influence des constituants majeurs des aliments sur l'efficacite de la mineralisation. Plusieurs plans de melanges de scheffe ont servi a mesurer les effets de ces facteurs et de leurs interactions. Des ingredients purs ont ete melanges dans des proportions variables pour preparer des matrices synthetiques. Differentes puissances de chauffage ont ete utilisees et les taux de recuperation de l'azote ont ete mesures. Il a ete ainsi possible de proposer deux types de modeles : le premier explique la forme des profils de recuperation, le second fournit les surfaces de reponses du taux de recuperation. Grace a ces modeles, de recommandations precises sont proposees en vue d'optimiser le programme de mineralisation d'un aliment donne. La deuxieme partie vise a determiner le role que joue le chauffage a micro-ondes par rapport au chauffage classique. Cette etude realisee sur le tryptophane a confirme que c'est essentiellement l'eau oxygenee qui permet de reduire les durees de mineralisation, pour tout type de chauffage. Il a ete egalement montre qu'en utilisant un chauffage classique, l'efficacite de la mineralisation est superieure quand l'ajout de l'eau oxygenee se fait tardivement. Par contre l'ajout doit se faire le plus tot possible quand un chauffage micro-ondes est applique : l'application des micro-ondes permet ainsi un gain de temps appreciable par rapport au chauffage classique. La troisieme partie s'interesse a l'etude de digesteurs a micro-ondes permettant de controler la temperature du milieu reactionnel. Cette etude realisee sur la farine de ble et la lysine a permis, grace a l'application des plans d'experiences factoriels et a l'ensemble de connaissances acquises sur les differents appareils a micro-ondes, d'optimiser de nouvelles procedures de mineralisation encore plus rapides.
APA, Harvard, Vancouver, ISO, and other styles
21

Cousin, Bernard. "Methodologie de validation des systemes structures en couches par reseaux de petri : application au protocole transport." Paris 6, 1987. http://www.theses.fr/1987PA066322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Boucher, Xavier. "Propositions methodologiques pour la gestion de filieres-metiers dans un contexte d'ingenierie concourante." Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30048.

Full text
Abstract:
L'ingenierie concourante (ic. ) est une demarche organisationnelle qui tente d'apporter une reponse aux exigences industrielles en matiere de maitrise de la qualite, des delais, des couts. Nous developpons dans ce memoire une reflexion methodologique qui vise a aider les entreprises dans la mise en uvre de l'ingenierie concourante. Nous montrons que pour appliquer l'ic. Dans une organisation, il est necessaire de gerer sur le long terme les differents metiers participant aux processus de developpement de produits. Nous proposons un cadre conceptuel qui permet de traiter avec rigueur cette question. Il repose sur un concept organisationnel, la filiere-metier, et sur une demarche organisationnelle, la dynamique-metier. Ce cadre conceptuel met l'accent d'une part sur la gestion des competences collectives et individuelles, et d'autre part sur la gestion des interactions entre les activites impliquees dans les processus de developpement de produits. Pour rendre possible la dynamique-metier, il est necessaire de la doter de certains outils, et deux d'entre-eux sont developpes dans la these. Nous elaborons un referentiel des savoirs partages au sein d'une filiere-metier, en vue de fournir une aide a la gestion des savoirs collectifs. Puis, nous proposons une modelisation qualitative des reseaux d'activites caracterisant les filieres-metiers, destinee a servir de support a une demarche d'amelioration interne. Enfin, nous appliquons notre approche a un cas d'etude industriel, qui montre que nos propositions permettent d'ameliorer l'organisation interne d'une filiere-metier.
APA, Harvard, Vancouver, ISO, and other styles
23

Groux-Leclet, Dominique. "Une approche par plans et par modélisation du domaine appliquée à l'enseignement de la rhumatologie : le système ARIADE : Apprentissage de la Rhumatologie Intelligemment Assistée par orDinatEur." Compiègne, 1993. http://www.theses.fr/1993COMP666S.

Full text
Abstract:
Ce manuscrit fait état de l'étude et de la réalisation d'un système tutoriel, à base de connaissances, appliqué à la rhumatologie. Il a été entrepris avec le concours du service de médecine informatique de la faculté de Rennes. Le système ARIADE, pour Apprentissage de la Rhumatologie Intelligemment Assistée par orDinatEur, à pour but d'aider à la formation des étudiants en 4ème année de médecine. L’objectif est de concevoir un système capable d'abord de leur donner des connaissances sur le domaine et sur le raisonnement diagnostique de la rhumatologie, puis d'en vérifier et d'en évaluer l'acquisition. Ce travail de recherche se décompose de la façon suivante. En premier lieu, une étude a été menée sur l'enseignement de la médecine et le diagnostic médical. Puis, il s'est agi de modéliser et de mettre en oeuvre les connaissances du domaine de la rhumatologie à des fins d'enseignement du diagnostic. La phase suivante, en fait réalisée conjointement avec cette modélisation, a consisté à mettre à jour et à représenter les connaissances pédagogiques utiles. Enfin, un système informatique a été réalisé : il permet notamment de placer l'étudiant face à un cas clinique qu'il doit résoudre ; le système contrôle ses actions, lui fournit alors les informations et les explications utiles.
APA, Harvard, Vancouver, ISO, and other styles
24

Pham, Van Cam. "Model-Based Software Engineering : Methodologies for Model-Code Synchronization in Reactive System Development." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS611/document.

Full text
Abstract:
Model-Based Software Engineering (MBSE) a été proposé comme une méthodologie prometteuse de développement de logiciels pour surmonter les limites de la méthodologie traditionnelle basée sur la programmation pour faire face à la complexité des systèmes embarqués. MBSE favorise l’utilisation de langages de modélisation pour décrire les systèmes d’une manière abstraite et fournit des moyens pour générer automatiquement de différents artefacts de développement, p.ex. code et documentation, à partir de modèles. Le développement d’un système complexe implique souvent de multiples intervenants qui utilisent différents outils pour modifier les artefacts de développement, le modèle et le code en particulier dans cette thèse. Les modifications apportées aux artefacts évoquent le problème de cohérence qui nécessite un processus de synchronisation pour propager les modifications apportées dans l’un artefact aux autres artefacts. Dans cette étude, le problème de la synchronisation des modèles d’architecture basés sur les éléments UML composite structure (UML-CS) et UML state machine (UML-SM) du langage de l’Unified Modeling Language (UML), et le code orienté objet est présenté. UML-CSs sont utilisés pour décrire l’architecture du logiciel basée sur les composants et UML-SMs pour les comportements discrets liés aux événements des systèmes réactifs. Le premier défi est de permettre une collaboration entre les architectes de logiciels et les programmeurs produisant de modèle et de code, en utilisant différents outils. Il soulève le problème de synchronisation où il existe de modifications simultanées des artefacts. En fait, il existe un écart de perception entre les langages à base de diagramme (langages de modélisation) et les langages textuels (langages de programmation). D’une part, les programmeurs préfèrent souvent utiliser la combinaison familière d’un langage de programmation et d’un environnement de développement intégré. D’autre part, les architectes logiciels, travaillant à des niveaux d’abstraction plus élevés, favorisent l’utilisation des modèles et préfèrent donc les langages à base de diagramme pour décrire l’architecture du système. Le deuxième défi est qu’il existe un écart d’abstraction significatif entre les éléments du modèle et les éléments du code: les éléments UML-CS et UML-SM sont au niveau d’abstraction plus élevé que les éléments du code. L’écart rend la difficulté pour les approches de synchronisation actuelles car il n’y a pas de façon facile de réflecter les modifications du code au modèle. Cette thèse propose une approche automatisée de synchronisation composée de deux principales contributions corrélées. Pour aborder le premier défi, on propose un patron méthodologique générique de synchronisation entre modèle et code. Il consiste en des définitions des fonctionnalités nécessaires et plusieurs processus qui synchronisent le modèle et le code en fonction de plusieurs scénarios définis où les développeurs utilisent différents outils pour modifier le modèle et le code. Cette contribution est indépendante de UML-CSs et UML-SMs. La deuxième contribution traite du deuxième défi et est basée sur les résultats de la première contribution. Dans la deuxième contribution, un mapping bidirectionnel est présentée pour réduire l’écart d’abstraction entre le modèle et le code. Le mapping est un ensemble de correspondances entre les éléments de modèle et ceux de code. Il est utilisé comme entrée principale du patron méthodologique générique de synchronisation entre modèle et code. Plus important, l’utilisation du mapping fournit les fonctionnalités définies dans la première contribution et facilite la synchronisation des éléments de UML-CS et UML-SM et du code. L’approche est évaluée au moyen de multiples simulations et d’une étude de cas
Model-Based Software Engineering (MBSE) has been proposed as a promising software development methodology to overcome limitations of traditional programming-based methodology in dealing with the complexity of embedded systems. MBSE promotes the use of modeling languages for describing systems in an abstract way and provides means for automatically generating different development artifacts, e.g. code and documentation, from models. The development of a complex system often involves multiple stakeholders who use different tools to modify the development artifacts, model and code in particular in this thesis. Artifact modifications must be kept consistent: a synchronization process needs to propagate modifications made in one artifact to the other artifacts. In this study, the problem of synchronizing Unified Modeling Language (UML)-based architecture models, specified by UML composite structure (UML-CS) and UML state machine (UML-SM) elements, and object-oriented code is presented. UML-CSs are used for describing the component-based software architecture and UML-SMs for discrete event-driven behaviors of reactive systems. The first challenge is to enable a collaboration between software architects and programmers producing model and code by using different tools. This raises the synchronization problem of concurrent artifact modifications. In fact, there is a perception gap between diagram-based languages (modeling languages) and text-based languages (programming languages). On the one hand, programmers often prefer to use the more familiar combination of a programming language and an Integrated Development Environment. On the other hand, software architects, working at higher levels of abstraction, tend to favor the use of models, and therefore prefer diagram-based languages for describing the architecture of the system. The second challenge is that there is a significant abstraction gap between the model elements and the code elements: UML-CS andUML-SM elements are at higher level of abstraction than code elements. The gap makes current synchronization approaches hard to be applied since there is no easy way to reflect modifications in code back to model. This thesis proposes an automated synchronization approach that is composed of two main correlated contributions. To address the first challenge, a generic model-code synchronization methodological pattern is proposed. It consists of definitions of necessary functionalities and multiple processes that synchronize model and code based on several defined scenarios where the developers use different tools to modify model and code. This contribution is independent of UML-CSs and UML-SMs. The second contribution deals with the second challenge and is based on the results from the first contribution. In the second contribution, a bidirectional mapping is presented for reducing the abstraction gap between model and code. The mapping is a set of correspondences between model elements and code elements. It is used as main input of the generic model-code synchronization methodological pattern. More importantly, the usage of the mapping provides the functionalities defined in the first contribution and eases the synchronization of UML-CS and UML-SM elements and code. The approach is evaluated by means of multiple simulations and a case study
APA, Harvard, Vancouver, ISO, and other styles
25

Nicoli, François. "Etude du liquide cephalorachidien par spectrosocpie de resonance magnetique du proton : problemes methodologiques et applications cliniques." Aix-Marseille 2, 1990. http://www.theses.fr/1990AIX20208.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Ittaratana, Surasavadee. "Methodologies de recherche et d'analyse des voies anciennes par la teledetection dans la partie meridionale du nord-est de la thailande." Paris, EPHE, 1998. http://www.theses.fr/1998EPHE4016.

Full text
Abstract:
L'etude que nous presentons concerne une tentative d'elaboration d'une methodologie d'adaptation des images satellitaires aux problemes poses par l'analyse des anciens paysages surtout des voies anciennes. Les methodes que nous avons employees par des images satellitaires, des photographies aeriennes, la toponymie en s'aidant des cartes et la verification sur le terrain. L'exemple de la rechercheest la route supposee d'angkor a phimai dont une partie est situee sur le territoire de la thailande, allant des dangrek a la ville de phimai. Les resultats obtenus nous peuvent donc assurer que l'utilisation de la teledetection est un excellent moyen de prospection preliminaire ou de solution des problemes de recherche, dans le domaine archeologique particulierement. Ce sera encore un meilleur outil avec le prochain satellite dont la resolution au sol sera amelioree : le spot 5 fournira autant de details que les photographies aeriennes au 1:50 000e ; les images-radar sont egalement pleines de promesses. Ils restent partiels, mais ils permettent de fonder de serieux espoirs sur l'utilisation de la teledetection en archeologie appliquee et en particulier pour l'occupation humaine.
APA, Harvard, Vancouver, ISO, and other styles
27

Magnenet, Claire. "Caracterisation d'oxydes mineraux par rmn du solide haute resolution : methodologie et application aux pigments a base de tio 2." Orléans, 1998. http://www.theses.fr/1998ORLE2076.

Full text
Abstract:
Des charges minerales, utiles pour leurs proprietes specifiques (couleur, proprietes mecaniques), sont utilisees dans de nombreux materiaux. Elles sont souvent recouvertes d'une fine couche d'oxyde, appelee traitement de surface (ts). La nature de ce ts a une enorme importance dans les applications industrielles car il isole la charge et optimise sa dispersion et sa compatibilite chimique avec la matrice. Nous avons entrepris de caracteriser par resonance magnetique nucleaire du solide haute resolution les ts aluminosilicates amorphes, mis en uvre pour les pigments blancs a base tio 2. Differentes techniques rmn de haute resolution du solide sont mises en uvre. La rotation a l'angle magique (mas), classique en rmn du solide ou le transfert multiquanta (mq-mas), developpe recemment, permettent de decrire la structure locale a courte distance autour du noyau observe (nature des premiers voisins, coordinence). Des methodes de double irradiation (cp, redor), permettent d'acceder a l'environnement a plus grande distance. Des ts modeles sont caracterises par rmn 2 7al, 2 9si, 2 3na et 1 7o. Nous avons suivi le processus de formation du ts realise sans tio 2. L'etape determinante de la synthese est revelee. Le ts massif est constitue de deux types de microdomaines et semble etre representatif du ts reel. Nous avons egalement etudie l'influence de l'ordre d'addition des sels de silicate et d'aluminate sur la structure du ts. Celui-ci apparait comme inhomogene a l'echelle de l'organisation de al et si tandis qu'il peut, suivant le mode de synthese, rester homogene du point de vue de la repartition des h. La signature de l'interface entre la base et le ts est clairement mise en evidence. Des ts commerciaux sont egalement caracterises par rmn. L'etude d'un nouveau mode de sechage met en evidence l'absence de correlation simple entre la structure locale du ts et les proprietes d'usage du pigment. Neanmoins, le mode de sechage peut modifier la structure de la couche de surface.
APA, Harvard, Vancouver, ISO, and other styles
28

Landousy, Fabrice. "DEVELOPPEMENTS METHODOLOGIQUES POUR LA CARACTERISATION DES COMPLEXES ADN-PROTEINES PAR AFM ET ETUDE DES INTERACTIONS ADN-KU." Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://tel.archives-ouvertes.fr/tel-00129367.

Full text
Abstract:
La microscopie à force atomique (AFM) ouvre de nouvelles perspectives dans l'étude des interactions ADN-protéines. Mon travail a consisté à développer de nouvelles méthodologies pour contrôler l'adsorption de l'ADN sur les surfaces et permettre l'étude en liquide de la dynamique des complexes.
Nous avons caractérisé les interactions entre l'ADN et la surface de mica. Nous proposons un modèle simple pour décrire les interactions électrostatiques en solution entre l'ADN et le mica, en considérant le rôle des cations monovalents et divalents. La bonne corrélation avec les données expérimentales permet de valider un référentiel de conditions et une méthode d'adsorption réversible de l'ADN sur mica prétraité nickel. Nous avons parallèlement développé un système de plots pour ancrer l'ADN par ses extrémités.
Le contrôle de ces méthodologies permet de caractériser l'accessibilité en fonction des états d'adsorption. Nous abordons cette problématique en caractérisant l'activité de la bléomycine sur l'ADN. Cette approche sur un système modèle permet de caractériser l'influence de la surface en termes d'accessibilité et d'activité.
La dernière partie de ce travail considère la caractérisation des interactions de la protéine Ku avec l'ADN dans le cadre de l'étude de la réparation des cassures double brin. Notre approche qui combine les apports de la microscopie électronique à transmission et de l'AFM met en évidence une polymérisation coopérative de Ku sur l'ADN double brin et un mode de fixation très différent sur l'ADN simple brin. Ce travail montre l'intérêt de l'imagerie moléculaire pour caractériser les mécanismes de recherche des sites cibles par les protéines.
APA, Harvard, Vancouver, ISO, and other styles
29

Aliyu, Hamzat Olanrewaju. "An Integrative Framework for Model-Driven Systems Engineering : Towards the Co-Evolution of Simulation, Formal Analysis and Enactment Methodologies for Discrete Event Systems." Thesis, Clermont-Ferrand 2, 2016. http://www.theses.fr/2016CLF22777/document.

Full text
Abstract:
Les méthodes d’ingénierie dirigée par modèle des systèmes, telles que la simulation, l’analyse formelle et l’émulation ont été intensivement utilisées ces dernières années pour étudier et prévoir les propriétés et les comportements des systèmes complexes. Les résultats de ces analyses révèlent des connaissances qui peuvent améliorer la compréhension d’un système existant ou soutenir un processus de conception de manière à éviter des erreurs couteuses (et catastrophiques) qui pourraient se produire dans le système. Les réponses à certaines questions que l’on se pose sur un système sont généralement obtenues en utilisant des méthodes d’analyse spécifiques ; par exemple les performances et les comportements d’un système peuvent être étudiés de façon efficace dans certains cadres expérimentaux, en utilisant une méthode appropriée de simulation. De façon similaire, la vérification de propriétés telles que la vivacité, la sécurité et l’équité sont mieux étudiées en utilisant des méthodes formelles appropriées tandis que les méthodologies d’émulation peuvent être utilisées pour vérifier des hypothèses temporelles et des activités et comportements impliquant des interactions humaines. Donc, une étude exhaustive d’un système complexe (ou même d’apparence simple) nécessite souvent l’utilisation de plusieurs méthodes d’analyse pour produire des réponses complémentaires aux probables questions. Nul doute que la combinaison de multiples méthodes d’analyse offre plus de possibilités et de rigueur pour analyser un système que ne peut le faire chacune des méthodes prise individuellement. Si cet exercice (de combinaison) permet d’aller vers une connaissance (presque) complète des systèmes complexes, son adoption pratique ne va pas de pair avec les avancées théoriques en matière de formalismes et d’algorithmes évolués, qui résultent de décennies de recherche par les praticiens des différentes méthodes. Ce déficit peut s’expliquer parles compétences mathématiques requises pour utiliser ces formalismes, en combinaison avec la faible portabilité des modèles entre les outils des différentes méthodes. Cette dernière exigence rend nécessaire la tâche herculéenne de créer et de gérer plusieurs modèles du même système dans différents formalismes et pour différents types d’analyse. Un autre facteur bloquant est que la plupart des environnements d’analyse sont dédiés à une méthode d’analyse spécifique (i.e., simulation, ou analyse formelle, ou émulation) et sont généralement difficiles à étendre pour réaliser d’autres types d’analyse. Ainsi, une vaste connaissance de formalismes supportant la multitude de méthodes d’analyse est requise, pour pouvoir créer les différents modèles nécessaires, mais surtout un problème de cohérence se pose lorsqu’il faudra mettre à jour séparément ces modèles lorsque certaines parties du système changent. La contribution de cette thèse est d’alléger les charges d’un utilisateur de méthodes d'analyse multiples, dans sa quête d’exhaustivité dans l’étude des systèmes complexes, grâce à un cadre qui utilise les technologies d’Ingénierie Dirigée par les Modèles (IDM) pour fédérer la simulation, l’analyse formelle et l’émulation. Ceci est rendu possible grâce à la définition d’un langage de spécification unifié de haut niveau, supporté par des capacités de synthèse automatiques d’artéfacts requis par les différentes méthodes d’analyse. (...)
Model-based systems engineering methodologies such as Simulation, Formal Methods (FM) and Enactment have been used extensively in recent decades to study, analyze, and forecast the properties and behaviors of complex systems. The results of these analyses often reveal subtle knowledge that could enhance deeper understanding of an existing system or provide timely feedbacks into a design process to avert costly (and catastrophic) errors that may arise in the system. Questions about different aspects of a system are usually best answered using some specific analysis methodologies; for instance, system's performance and behavior in some specified experimental frames can be efficiently studied using appropriate simulation methodologies. Similarly, verification of properties such as, liveness, safeness and fairness are better studied with appropriate formal methods while enactment methodologies may be used to verify assumptions about some time-based and human-in-the-loop activities and behaviors. Therefore, an exhaustive study of a complex (or even seemingly simple) system often requires the use of different analysis methodologies to produce complementary answers to likely questions. There is no gainsaying that a combination of multiple analysis methodologies offers more powerful capabilities and rigor to test system designs than can be accomplished with any of the methodologies applied alone. While this exercise will provide (near) complete knowledge of complex systems and helps analysts to make reliable assumptions and forecasts about their properties, its practical adoption is not commensurate with the theoretical advancements, and evolving formalisms and algorithms, resulting from decades of research by practitioners of the different methodologies. This shortfall has been linked to the prerequisite mathematical skills for dealing with most formalisms, which is compounded by little portability of models between tools of different methodologies that makes it mostly necessary to bear the herculean task of creating and managing several models of same system in different formalisms. Another contributing factor is that most of existing computational analysis environments are dedicated to specific analysis methodologies (i.e., simulation or FM or enactment) and are usually difficult to extend to accommodate other approaches. Thus, one must learn all the formalisms underlining the various methods to create models and go round to update all of them whenever certain system variables change. The contribution of this thesis to alleviating the burdens on users of multiple analysis methodologies for exhaustive study of complex systems can be described as a framework that uses Model-Driven Engineering (MDE) technologies to federate simulation, FM and enactment analysis methodologies behind a unified high-level specification language with support for automated synthesis of artifacts required by the disparate methodologies. This framework envelops four pieces of contributions: i) a methodology that emulates the Model- Driven Architecture (MDA) to propose an independent formalism to integrate the different analysis methodologies. ii) Integration of concepts from the three methodologies to provide a common metamodel to unite some selected formalisms for simulation, FM and enactment. Iii) Mapping rules for automated synthesis of artifacts for simulation, FM and enactment from a common reference model of a system and its requirements. iv) A framework for the enactment of idiscrete event systems. We use the beverage vending system as a running example throughout the thesis. (...)
APA, Harvard, Vancouver, ISO, and other styles
30

Sienkiewicz, Magdalena. "METHODOLOGIE DE LOCALISATION DES DEFAUTS SOFT DANS LES CIRCUITS INTEGRES MIXTES ET ANALOGIQUES PAR STIMULATION PAR FAISCEAU LASER : ANALYSE DE RESULTATS DES TECHNIQUES DYNAMIQUES PARAMETRIQUES." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00998834.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

GUEMAS, YANN. "Mise au point de nouvelles methodologies d'analyse par biocapteur de melanges de glucose et saccharose. Application a l'analyse des jus de fruits." Nantes, 2001. http://www.theses.fr/2001NANT2019.

Full text
Abstract:
Ce memoire presente differentes strategies de preparation de biocapteurs pour l'analyse simultanee du saccharose et du glucose. Dans tous les cas, la methode de detection est electrochimique et utilise la technique amperometrique en mode dynamique d'analyse par injection en flux continu. Le transducteur est une electrode a pate de carbone modifiee par la glucose oxydase, une peroxydase et le ferrocene comme mediateur redox. Les deux premieres methodes reposent sur un dosage indirect du saccharose par mesure differentielle du glucose avant et apres une etape d'hydrolyse. L'utilisation, en solution ou sous forme immobilisee dans un reacteur, de la -fructosidase et de la mutarotase a ete optimisee pour obtenir une hydrolyse totale du saccharose et un signal representatif du glucose. Le cas de solutions contenant de faibles concentrations de saccharose par rapport a celles du glucose a necessite le developpement d'une methodologie mettant en uvre deux reacteurs consecutifs, l'un pour l'elimination du glucose et l'autre pour l'hydrolyse du saccharose. Nous avons optimise la preparation de ces reacteurs pour repondre aux exigences qu'impose la mesure des sucres dans les echantillons reels de jus de fruits. Pour chacune des methodologies proposees une validation sur des echantillons diversifies, a base de jus de fruits, a ete realisee en comparant les resultats obtenus a ceux de la methode standard utilisant la spectroscopie u. V. . Nous avons egalement montre dans ce memoire que la detection du glucose a l'aide de l'electrode enzymatique utilisee etait plus complexe qu'elle n'etait couramment admise. Elle mettait en jeu deux reactions concurrentes qui affectaient le signal amperometrique. Les effets de differents parametres physico-chimiques sur les cinetiques des deux reactions ont ete evalues et les conditions experimentales ont ete definies pour obtenir un signal fidele et representatif des concentrations reelles en glucose.
APA, Harvard, Vancouver, ISO, and other styles
32

MENY, CHRISTIAN. "Etude de multicouches magnetiques par rmn : methodologie et application aux systemes co/cu, co/cr, co/ru et co/fe." Université Louis Pasteur (Strasbourg) (1971-2008), 1994. http://www.theses.fr/1994STR13037.

Full text
Abstract:
Nous avons etabli une procedure originale de mesure et d'analyse des spectres de resonance magnetique nucleaire en champ nul de materiaux ferromagnetiques (fnr). La methodologie developpee consiste en la determination en tout point du spectre de l'effet d'augmentation du a la susceptibilite magnetique des electrons; ceci permet l'etablissement de spectres dont les intensites relatives des raies sont reellement proportionnelles au nombre d'atomes presents dans chaque environnement. On peut alors, par fnr, aborder quantitativement les aspects structuraux des materiaux magnetiques (analyse de melanges de phases, etude de diagrammes de phases ou de parametres d'ordre a courte distance) comme dans les autres domaines de la rmn. De plus la methode apporte simultanement des informations sur la durete magnetique locale des echantillons, jusqu'a present inexploitees, qui peuvent etre confrontees aux resultats structuraux. Cette nouvelle methodologie a ete plus particulierement appliquee a l'analyse de multicouches magnetiques a base de co (co/cu, co/cr, co/ru et co/fe). La structure cristallographique des parties massives des couches de co a ete determinee (melange des phases cfc, hc et cc) et grace a l'utilisation de modeles la nanostructure des interfaces (ordre a courte distance et morphologie) a ete analysee. Cela a enfin permis d'etablir des correlations entre structure des echantillons et d'une part procedes de fabrication et d'autre part proprietes magnetiques
APA, Harvard, Vancouver, ISO, and other styles
33

Jourdan, Jean. "Concurrence et cooperation de modeles multiples dans les langages de contraintes clp et cc : vers une methodologie de programmation par modelisation." Paris 7, 1995. http://www.theses.fr/1995PA077039.

Full text
Abstract:
Cette these s'attaque a la resolution de problemes complexes d'optimisation combinatoire, a partir de methodes declaratives basees sur les langages de programmation logique avec contraintes (clp). La these porte sur l'exploitation de differentes vues des problemes a travers le concept de representations multiples. La demarche suivie preserve le cote declaratif de la clp et s'appuie sur les mecanismes de communication des langages clp et cc qui permettent la synchronisation de plusieurs programmes correspondant a des visions differentes du probleme. Le concept de modelisation multiple est tout d'abord applique a des modeles multiples redondants. Sur le probleme des n reines on montre les avantages qu'une representation duale procure en terme de stabilite et de robustesse par rapport a une solution classique clp. Sur un probleme d'ordonnancement, le sequencement des vols a l'arrivee, on montre l'importance des representations multiples pour concevoir declarativement une solution robuste a differents criteres d'optimisation. Ensuite, la demarche multi-modeles est appliquee a des modeles multiples cooperants. Ces derniers permettent de s'attaquer a une nouvelle classe de problemes, l'optimisation globale de systemes heterogenes, pour lesquels aucune solution satisfaisante n'existe a l'heure actuelle. L'application de ces principes a la resolution du probleme de placement d'applications de traitement du signal sur machines paralleles a permis une optimisation globale du systeme qui depasse deja l'etat de l'art du domaine. Cette these montre l'adequation du cadre theorique et pratique des langages de clp et cc pour l'execution des modeles multiples, en soulignant le role des proprietes mathematiques de compositionlite de ces langages, et en jetant les bases d'une methodologie de programmation par modelisation destinee a la resolution de problemes reels
APA, Harvard, Vancouver, ISO, and other styles
34

Lekmine, Grégory. "QUANTIFICATION DES PARAMETRES DE TRANSPORT DES SOLUTES EN MILIEUX POREUX PAR TOMOGRAPHIE DE RESISTIVITE ELECTRIQUE : DEVELOPPEMENTS METHODOLOGIQUES ET EXPERIMENTAUX." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00682952.

Full text
Abstract:
La tomographie de résistivité électrique (ERT) est une méthode courante géophysique de terrain, souvent utilisée pour détecter et l'évolution suivre les panaches de polluants en zone saturée. L'ERT est cependant une méthode intégratrice dont la fiabilité des modèles est confrontée aux problèmes de non-unicité des solutions du problème inverse. Ces contraintes limitent l'interprétation des modèles à un aspect qualitatif de la distribution des contrastes de résistivité modélisés en 2D ou 3D, résultant du choix des paramètres d'inversion et de l'association de paramètres du milieu non identifiables à l'échelle du volume poreux. Cette thèse propose de tester la faisabilité de la méthode pour quantifier les paramètres de transport de polluants et de solutés miscibles au contact des eaux souterraines, ainsi que la sensibilité des paramètres d'inversion les plus influents sur la modélisation. Les tests expérimentaux sont réalisés en laboratoire sur des empillements 2D de billes de verre sphériques (de l'ordre de la 100ène de μm) dans un réservoir en plexiglas transparent. Deux réseaux verticaux de 21 électrodes sont disposés sur les bords latéraux du réservoir pour effectuer le suivi ERT du traceur salé (NaCl dissout) à partir de 210 points de mesures en dipôle-dipôle transverse acquis toutes les 5 minutes afin d'optimiser la résolution temporelle. Le dispositif est également disposé face à un panneau lumineux permettant de réalisé un suivi vidéo simultané du colorant. L'analyse vidéo révèle une propagation plus rapide du colorant sur les bords latéraux qui reste somme toute négligeable pour les débits à la pompe les plus faibles. En revanche les mesures ERT sont fortement perturbées par les effets résistant de la cellule plexiglas qui se répercutent sur les modèles. La normalisation des mesures de résistivité apparente à partir d'une série acquise à l'état initial permet de les atténuer fortement. La modélisation est particulièrement sensible au choix du maillage, aux normes appliqués (L1 ou L2) sur les données et les paramètres, et au facteur d'amortissement. Des valeurs trop élevées du facteur d'acceptance tendent à lisser les contrastes au niveau du front de dispersion et augmentent l'impact des effets des bords horizontaux sur D et . A l'inverse, une modélisation contrainte par de faibles valeurs du facteur d'acceptance donnent des résultats plus proches de l'analyse vidéo, mais produit des effets de bosses à l'avant et à l'arrière du front. La vitesse interstitielle u est indépendante du choix des paramètres d'inversion pour l'ERT. Pour les deux méthodes u est toujours inférieure au débit imposé par la pompe, dont le décalage est exprimé par le facteur retard Rf . Les effets de retard résultent de l'adsorption du Na+ sur les surfaces des billes de verre chargées négativement qui retarde le front de dispersion du suivi ERT. Pour le suivi vidéo, la taille importante de la molécule du colorant favorise son piégeage dans les zones où la perméabilité est plus faible, en plus d'une éventuelle affinité avec la surface solide. Les contrastes de conductivité et la stabilité de l'interface créent par la différence de densité entre les fluides testés ici n'ont pas d'influences significatives sur la dispersion qui est dominée par le débit imposé à la pompe. Les estimations du coefficient de dispersion D en fonction du nombre de Péclet sont cohérentes avec la courbe théorique de Bachmat (1968). Cependant la dispersivité augmente pour les vitesses d'écoulement les plus élevées. Les premières expérimentations de terrain réalisées en 2D sur des sables de Fontainebleau présentent l'avantage de s'affranchir des effets de bords inhérents au laboratoire. En revanche la recalibration des données normalisée par la loi de Archie est plus complexe puisqu'il est nécessaire de tenir compte de l'état de saturation de la résistivité des fluides initialement présents. De plus l'erreur importante sur les modèles ne permet pas de déduire une estimation fiable des paramatères de transport u, (ou D), et Rf .
APA, Harvard, Vancouver, ISO, and other styles
35

Erramli, Hassane. "Développement des techniques de dosimétrie appliquées à la datation par thermoluminescence." Clermont-Ferrand 2, 1986. http://www.theses.fr/1986CLF21045.

Full text
Abstract:
Étude de la dosimétrie des rayonnements d'origine naturelle dans laquelle duex composantes peuvent être distinguées. Dose interne apportée par les rayonnements de faible parcours issus de l'échantillon considéré. Dose externe apportée par les rayonnements de grand pouvoir de pénétration et provenent de l'environnement de l'échantillon. Deux techniques sont traitées en détail: Dosimétrie thermoluminescents et spectrométrie gamma de terrain. Corrections liées à l'environnement et aux conditions d'emploi
APA, Harvard, Vancouver, ISO, and other styles
36

DJENAS, SAMIA. "Elaboration d'une methodologie de conception du systeme de sante et des batiments de soins en algerie par l'application de l'analyse de la valeur." Paris 6, 1986. http://www.theses.fr/1986PA066630.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

MUNIER, STEPHANE. "Cokefaction des paliers arrieres de turbomachines - methodologie de resolution numerique. Recherche experimentale des coefficients d'echange par convection a l'interieur de l'enceinte d'un palier." Toulouse 3, 1997. http://www.theses.fr/1997TOU30223.

Full text
Abstract:
L'evolution des turbines d'helicoptere a conduit a installer le palier supportant les arbres de turbine dans des zones de plus en plus chaudes entre les turbines generateurs et la turbine libre. Ceinturees par la veine d'air chaud, les parois du palier arriere atteignent des temperatures plus elevees apres l'arret du moteur que pendant son fonctionnement. A cause de ce phenomene, une partie de l'huile de lubrification, qui n'a pu etre vidangee, va cokefier. La formation du coke peut entrainer des incidents en vol lorsqu'il bouche des gicleurs de lubrification. Afin de reduire la cokefaction, il est necessaire de mettre au point une technique de simulation numerique permettant le calcul transitoire des temperatures atteintes par les parois du palier. Apres avoir presente la totalite du chargement thermique rencontre dans un palier arriere, nous avons etudie les facteurs influencant les conditions d'echange thermique entre le melange air - huile et les parois de l'enceinte du palier. Une etude experimentale realisee sur banc partiel nous a montre : - l'interet d'une grille installee dans l'enceinte du palier arriere. - l'interet d'une lubrification separee des roulements et de la paroi. - l'influence de la vitesse de rotation de l'arbre et du debit d'air de pressurisation. - la necessite d'un choix approprie du diametre du gicleur par rapport au debit d'huile. Une simulation numerique des temperatures de palier en regime permanent a ete realisee. La methode a ete validee par la comparaison des resultats de calculs avec des mesures experimentales. Pour la simulation d'un palier apres l'arret du moteur, nous avons porte notre attention sur les resistances thermiques de contact. Une simulation numerique nous a montre le peu de repercussion que l'introduction d'une resistance thermique de contact pouvait avoir sur un calcul thermique transitoire. La mise au point d'une procedure iterative de determination du chargement thermique en transitoire a permis une simulation des temperatures d'un palier arriere. Cette procedure a ete validee.
APA, Harvard, Vancouver, ISO, and other styles
38

Antoine, Marie-Joëlle. "Methodologie de la detection individuelle d'activations cerebrales en tomographie par emission de positons : caracterisation statistique des images de bruit et introduction d'information anatomique." Caen, 1996. http://www.theses.fr/1996CAEN2049.

Full text
Abstract:
La tomographie par emission de positons (t. E. P. ) est une technique d'imagerie medicale fonctionnelle, qui fournit des images refletant le metabolisme de l'organe etudie. En particulier, elle permet la comparaison de differents etats cognitifs, en termes de zones cerebrales impliquees dans la realisation de taches donnees. Ces zones sont observables grace aux signaux induits sur les images t. E. P. Par une augmentation locale du debit sanguin cerebral, ou activation. La detection de telles augmentations est rendue difficile par le niveau de bruit affectant les images t. E. P. Ce bruit doit etre modelise pour pouvoir caracteriser une hypothese nulle d'absence d'activation. Cette derniere est ensuite testee, suivant une demarche classique en statistique, apres avoir fixe un risque de 1ere espece. Apres avoir realise une modelisation du bruit t. E. P. , nous avons introduit une information anatomique annexe, fournie par l'imagerie par resonance magnetique nucleaire, au stade du filtrage passe-bas des images t. E. P. Celui-ci est necessaire pour reduire le bruit, mais degrade les proprietes spatiales des signaux d'activation. Notre objectif etait de limiter cette degradation grace a l'apport d'information anatomique. Les premiers resultats obtenus sont encourageants, mais necessitent confirmation
APA, Harvard, Vancouver, ISO, and other styles
39

Lafon, Vincent. "Developpement d'une methodologie de caracterisation des proprietes physiques et chimiques de surface des aerosols atmospheriques : application aux aerosols emis par la combustion automobile." Paris 7, 2000. http://www.theses.fr/2000PA077121.

Full text
Abstract:
La methodologie analytique necessaire pour caracteriser la surface de l'aerosol atmospherique a ete mise au point sur des particules issues de la combustion automobile : il s'agit d'un echantillon facile a produire, dans des conditions experimentales compatibles avec un protocole analytique (repetitivite et reproductibilite). De plus, ces particules presentent un interet environnemental majeur en milieu urbain. Dans un premier temps, afin de disposer d'un echantillon a la fois representatif de la source mais egalement compatible avec les instruments choisis, nous avons mis au point un nouvel instrument de prelevement. Grace a cet outil, nous avons apporte comme informations nouvelles : - l'observation de la topographie de surface de particules, inaccessible jusqu'alors par microscopie electronique a balayage (m. E. B. ), est desormais possible en utilisant la microscopie a force atomique (a. F. M. ) afin d'etudier qualitativement la surface specifique des particules ; - l'identification de fonctions chimiques ainsi que de structures moleculaires localisees specifiquement en surface grace notamment a l'utilisation de la spectrometrie de masse d'ions secondaires utilisant un detecteur a temps de vol (t. O. F. - s. I. Ms. ) ; - sur le cas de differents regimes de fonctionnement de moteur, nous montrons les variations de la chimie de surface a l'aide d'indicateurs (fonctions chimiques) ; ce travail peut etre generalise a l'etude d'autres familles d'aerosols atmospheriques afin d'etablir une echelle de reactivite en phase heterogene ou identifier le materiau carbone susceptible d'etre utilise comme modele de l'aerosol carbone atmospherique. Il est egalement possible d'utiliser cette methodologie pour participer a l'elaboration de mecanismes
APA, Harvard, Vancouver, ISO, and other styles
40

LORGE, FRANZ. "Nouvelles methodologies de synthese d'heterocycles multifonctionnalises sur phase solide mise au point d'une technique d'analyse structurale par resonance magnetique nucleaire de molecules accrochees sur phase solide." Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13213.

Full text
Abstract:
Les travaux decrits dans ce memoire se rapportent a la synthese et a l'analyse structurale de molecules organiques accrochees sur resine de merrifield. Au cours des deux premieres parties, nous avons mis au point deux nouvelles syntheses traceless sur phase solide d'isoxazolidines et de 1h1,2,3-triazoles diversement substitues. Les deux voies d'acces reposent sur une strategie commune, dont l'etape-cle est une cycloaddition 1,3-dipolaire entre un dipolarophile (alcene ou alcyne) et, respectivement, une nitrone ou un azoture. Les cycloadduits sont construits en un nombre minimal d'etapes, au cours desquelles les differentes sources de diversite structurale sont introduites successivement. Le caractere traceless des deux syntheses est apporte par l'utilisation d'une resine de type rem, qui permet un decrochage fonctionnalisant de chacun des heterocycles. Enfin, dans un troisieme volet, nous avons developpe une nouvelle procedure de rmn du 1 3c en phase gel de resines fonctionnalisees. Grace a l'utilisation d'une sequence d'impulsions aux delais optimises, il est possible d'obtenir un spectre totalement exploitable en moins de vingt minutes. Ce temps d'experience particulierement court rend la methode compatible avec l'analyse de routine. La procedure ainsi mise au point peut etre employee en complement d'autres techniques analytiques telles que la microspectroscopie infrarouge.
APA, Harvard, Vancouver, ISO, and other styles
41

Meziane, Aïcha. "Circulation et aeration engendrees par des mobiles d'agitation immerges a axe horizontal dans un chenal d'oxydation." Toulouse, INSA, 1988. http://www.theses.fr/1988ISAT0026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Meen, Murielle. "La cystite induite par le cyclophosphamide chez le rat : un nouveau modele comportemental de douleur viscerale.aspects methodologiques,physiopathologiques et pharmacologiques (doctorat)." Clermont-Ferrand 1, 2001. http://www.theses.fr/2001CLF1PP07.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Abadie, Pascale. "Etude en tomographie par emission de positons des recepteurs aux benzodiazepines de type central chez l'homme : methodologie, physiopathologie de l'anxiete et application en psychopharmacologie." Paris 6, 1996. http://www.theses.fr/1996PA066447.

Full text
Abstract:
Les recepteurs aux benzodiazepines de type central qui font partie du complexe gabaergique ont ete etudies chez l'homme vivant en tomographie par emission de positons (tep) grace au #1#1cflumazenil, un antagoniste specifique de ces sites de liaison marque au carbone 11. Des etudes dans des conditions physiologiques et physiopathologiques ont ete entreprises dans l'objectif de preciser les mecanismes de modulation de ces recepteurs. Dans un premier temps, nous avons developpe une methode permettant d'estimer chez sept volontaires sains non traites les parametres de liaison des recepteurs (bmax et kd) applicable en recherche clinique. Cette methode dite au pseudo-equilibre implique deux injections successives de #1#1cflumazenil (a haute et basse radioactivite specifique) chez chaque sujet et l'utilisation d'une camera tep de haute resolution ; la concentration du radioligand libre dans le cerveau a ete estimee grace a la mesure de la radioactivite dans trois regions de reference distinctes dont nous avons compares les merites respectifs: le pont, la substance blanche hemispherique et le corps calleux. Les parametres bmax et kd ont ete calcules dans 18 structures cerebrales. Cette etude indique que le pont est la structure de reference la plus adequate dans le cadre de cette methodologie car fournissant des mesures satisfaisantes de bmax et kd pour de multiples regions neocorticales et cerebelleuses. Grace a cette methode, une etude des parametres de liaison des recepteurs aux benzodiazepines de type central a alors ete effectuee chez dix patients presentant un trouble anxieux (non traites de benzodiazepines): les resultats indiquent qu'il n'existe pas de difference significative de bmax et kd chez les patients en comparaison aux volontaires sains apparies en age et en sexe, ou de correlation significative fiable entre ces parametres et les scores obtenus aux echelles d'anxiete utilisees, au niveau des regions neocorticales et cerebelleuses etudiees. Ces resultats exploratoires suggerent l'absence d'anomalie significative des parametres de liaison des recepteurs aux benzodiazepines de type central dans notre population de patients anxieux. Nous avons estime l'occupation des recepteurs aux benzodiazepines de type central par le zolpidem (un agoniste complet non benzodiazepinique de ces recepteurs) administre par voie orale a une dose sedative double de celle utilisee habituellement en clinique. Il existait une occupation moderee des recepteurs (25%) au niveau de diverses regions neocorticales, en faveur d'une efficacite intrinseque elevee du zolpidem in vivo. Cette etude est la premiere a documenter la faisabilite d'une analyse regionale par tep de l'occupation des recepteurs aux benzodiazepines de type central par un traitement medicamenteux
APA, Harvard, Vancouver, ISO, and other styles
44

CHABNI, AREZKI. "Etude par methodologie de type simulation des grosses structures de la dynamique de l'interaction et des echanges entre une couche limite et une encoche." Paris 11, 1997. http://www.theses.fr/1997PA112374.

Full text
Abstract:
Ce travail est consacre a l'etude, par simulation des grandes echelles, de la dynamique de l'interaction et des echanges entre une couche limite et une encoche. Le code de calcul utilise une formulation discrete aux differences finies. Une methode de projection a pas fractionnaire a ete utilisee pour la resolution des equations de naviers-stokes. Le test de validation verifie bien que l'on detecte l'apparition des mouvements instationnaires. Differents modeles de sous-maille ont ete testes en deux dimensions, un modele d'echelles mixtes a ete adopte. Le code a ete ensuite utilise pour etudier l'ecoulement dans une rue soumise a un vent perpendiculaire a son axe. Une etude thermique ainsi qu'une etude de la dispersion d'un scalaire passif ont ete effectuees. Enfin, des simulations 3d ont ete egalement effectuees pour valider et tester la pertinence de l'approche simulation des grosses structures en 2d/3d.
APA, Harvard, Vancouver, ISO, and other styles
45

Anwer, Nabil. "Methodologie d'analyse de raisonnement pour la generation automatique des gammes d'usinage en fraisage. Contribution a la caracterisation des entites par analyse des contraintes d'usinabilite." Cachan, Ecole normale supérieure, 2000. http://www.theses.fr/2000DENS0002.

Full text
Abstract:
Le travail presente dans ce memoire a pour but le developpement d'outils et de methodes pour la modelisation des connaissances dans le cadre de l'automatisation des gammes d'usinage en fraisage. A partir de l'analyse de l'expertise en gammes, nous avons elabore une methodologie a base de raisonnement par classification appelee methode hera 5hierarchical efficient reasoning analysis). Celle-ci reprend le schema classique de la classification heuristique et l'enrichit de sept activites qui sont a la base d'un modele de connaissances integrant : la modelisation produit a l'aide d'une approche par entites pour transcrire le modele cao, les informations de specifications geometriques et technologiques, la formalisation des interactions entre les entites et l'exploitation d'un formalisme a base de graphes associe a une modelisation par objets. Les connaissances du process grace au developpement d'une nouvelle classification d'entites de forme, l'analyse d'usinabilite comme moyen de formalisation des regles de validite des entites de forme, la caracterisation des sequences ordonnees d'operations d'usinage et la succession des etats intermediaires, ainsi que la gestion des connaissances de ressources. Le prototype ippa 5intelligent process planning assistant) a travers une maquette de validation des concepts et les resultats prometteurs pour l'extraction des entites de forme sur la base d'un modele cao catia, la classification des entites et l'association des operations d'usinage.
APA, Harvard, Vancouver, ISO, and other styles
46

PLEVERT, JACQUES. "Diffraction des rayons x par les solides polycristallins. Aspects methodologiques de la diffractometrie sequentielle et analyse structurale et microstructurale de solides inorganiques." Rennes 1, 1990. http://www.theses.fr/1990REN10031.

Full text
Abstract:
Le diagramme de poudre obtenu par la diffraction des rayons x est susceptible de fournir des informations d'ordre structural et d'ordre microstructural des lors qu'il est possible d'y extraire les composants individuels des pics de bragg. L'innovation instrumentale et l'exploitation des diffractogrammes a l'aide de methodes de fitting ont entre autres conduit a l'emergence de cette discipline. Elle est apte dorenavant a determiner l'arrangement atomique de structures cristallines. De meme, l'apparition de detecteurs a localisation spaciale favorise le suivi de l'evolution structurale ou microstructurale des echantillons sous l'influence d'un parametre de perturbation. Neanmoins, le developpement de la diffraction sequentialisee introduit des points delicats dans l'interpretation des diagrammes 3d lors de transformations de phases. Il s'agit des effets d'orientation preferentielle de cristallites sur la variation de l'intensite integree des raies de diffraction lors d'une transformation de phase allotropique d'un iodure de cesium et cadmium, et des effets de la recristallisation durant la decomposition thermique d'un nouvel hydroxy-nitrate de cadmium. Un autre point traite de la determination de la structure de cet hydroxy-nitrate de cadmium par diffraction conventionnelle en integrant les effets microstructuraux du compose dans la phase d'affinement. Enfin, les effets microstructuraux induisent une grande variete de forme de raies. Quelques profils de raies sont presentes a partir d'exemples selectionnes. Un examen plus attentif des profils supra-lorentziens permet de proposer une explication sur leur origine
APA, Harvard, Vancouver, ISO, and other styles
47

VAAST, PACI CHRISTINE. "Etude de l'induction locale dans le compose supraconducteur yba#2cu#3o#7#-# par spectroscopie mossbauer sur la sonde #1#7#0yb#3#+ : methodologie et resultats." Paris 11, 1997. http://www.theses.fr/1997PA112413.

Full text
Abstract:
Cette these est consacree a l'etude de la distribution de l'induction dans yba#2cu#3o#7#-#, supraconducteur anisotrope de deuxieme espece, en presence d'un champ magnetique applique. Dans ce compose, le champ penetre sous forme de vortex dont les caracteristiques dependent a la fois des parametres intrinseques (anisotropie, longueur de penetration,. . . ) et extrinseques (centres d'ancrages). Nous avons developpe une technique d'analyse microscopique pour mesurer l'induction locale sur un site atomique. Il s'agit de la spectroscopie mossbauer sur des sondes paramagnetiques #1#7#0yb#3#+ en dilution, substituees aux ions y#3#+. La technique de mesure est basee sur la dependance en champ (grandeur et direction) des transitions mossbauer entre les niveaux electronucleaires de la sonde. On obtient ainsi la distribution de l'induction en grandeur et en direction, dans tout le volume du compose. La gamme de champs mesurables s'etend de valeurs inferieures a 50g et jusqu'a 4000g, pour des temperatures pouvant aller jusqu'a 60k. Nous avons utilise cette nouvelle technique a t=4. 2k sur des composes yba#2cu#3o#7#-# sous forme de frittes a teneur variable en oxygene, et sous forme de monocristaux (dopage optimum) orientes dans une resine. Les mesures de longueur de penetration de london ont montre que la densite de condensats supraconducteurs augmente progressivement avec la teneur en oxygene. Les mesures de penetration de champ ont fourni une valeur microscopique du champ de premiere penetration h#c#l et ont permis de proposer un modele decrivant la distribution spatiale de l'induction due a l'ancrage, et de montrer qu'il existe une penetration anormale pour des monocristaux de tres petite taille. Lorsque le champ magnetique applique est incline par rapport a c, nous avons mesure la direction moyenne des vortex et montre qu'elle depend de la facon dont le champ est applique (fc ou zfc) et qu'il existe une competition entre les forces d'ancrage des vortex et l'anisotropie intrinseque du compose.
APA, Harvard, Vancouver, ISO, and other styles
48

Moraes, Monique Alves Franco de. "Desenvolvimento de metodologias de avaliação e monitoramento do desgaste no par tribológico RISER/ENRIJECEDOR." Universidade Federal de Uberlândia, 2013. https://repositorio.ufu.br/handle/123456789/14937.

Full text
Abstract:
Conselho Nacional de Desenvolvimento Científico e Tecnológico
In this work, methodologies to evaluate the wear of flexible riser pipe and bend stiffener samples were developed. In order to achieve this goal, a three coordinate measuring machine (3CMM) was used to evaluate the wear rates of samples tested in in a large-scale tribometer. Additionally, the events that occur during the sliding wear of these samples were correlated with vibration signals from the tribometer structure. The first methodology was applied to estimate the linear wear of riser samples of the polyamide outer coating that was based on the thickness reduction during the test. The second methodology was designed to estimate the volumetric wear loss of the bendstiffener samples. To evaluate the thickness loss of the riser samples, the Calypso® software was used to define the alignment and to determine and execute the measurement strategy. In order to assess the bend-stiffener volume, the same software was used to define the system alignment. The Dimension Volume® software was used to define and to perform the measurement strategy. The sample volume was calculated using a specially designed program that was developed in Matlab®. In order to analyze the vibrations during the wear test, a routine of data acquisition, monitoring and storage of vibration signals in Labview® software was developed and implemented. The results showed that the developed methodology to quantify the riser thickness loss using a 3CMM is viable and efficient in measuring the wear process of this tribosystem. It was also found that the developed program using Matlab® was an effective tool to evaluate the volumetric losses of bend-stiffeners samples. The measurement strategy using a mesh spacing of 1 mm x 1 mm was considered the most adequate to estimate the volume of a bend-stiffener sample accurately and with the least possible amount of points. Furthermore, it was observed a vibration peak located at 16.71 Hz, that should be related to the wear process.
Neste trabalho foram desenvolvidas e aplicadas duas metodologias para quantificar o desgaste em amostras de risers e enrijecedores utilizando uma máquina de medir a três coordenadas (MM3C). Tais amostras foram testadas em um tribômetro capaz de realizar ensaios de desgaste por deslizamento em escala real. Adicionalmente, foram correlacionados os eventos que ocorrem durante o processo de desgaste destas amostras com as vibrações na estrutura do tribômetro. A primeira metodologia foi aplicada na estimativa do desgaste linear em amostras de risers, com base na variação de espessura, enquanto que a segunda foi destinada à estimativa do desgaste volumétrico em amostras de enrijecedores, tendo por base a perda de volume das mesmas. Para avaliar a perda de espessura nas amostras de riser foi utilizado o software Calypso® na definição do alinhamento e na determinação e execução da estratégia de medição. Já na avaliação do volume das amostras de enrijecedores, foi utilizado o mesmo software na definição do alinhamento. O software Dimension Volume® foi empregado na definição e execução da estratégia de medição, e, para calcular o volume destas amostras, foi elaborado e utilizado um programa em Matlab®. Com o intuito de analisar as vibrações durante o ensaio de desgaste, foi desenvolvida e implementada uma rotina de aquisição, monitoramento e salvamento dos sinais de vibrações no software Labview®. Os resultados obtidos permitiram concluir que a metodologia desenvolvida para quantificação da perda de espessura de risers usando uma MM3C é uma técnica viável e eficiente. Constatou-se, também, que o programa desenvolvido em Matlab® foi uma ferramenta eficaz na avaliação volumétrica das amostras de enrijecedores. A estratégia de medição com malha 1 mm x 1 mm foi considerada a mais adequada para estimar o volume de uma amostra de enrijecedor, com precisão e com a menor quantidade de pontos possível. Além disso, verificou-se que o pico da amplitude vibratória esteve localizado em 16,71 Hz, que deve estar relacionado ao processo de desgaste.
Mestre em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
49

Ebelin, Marie-Eve. "Evaluation pharmacocinetique et/ou pharmacodynamique par l'approche de population : protocoles d'etude, methodologie d'analyse des donnees et application a des molecules d'interet therapeutique au cours de leur developpement." Aix-Marseille 2, 1995. http://www.theses.fr/1995AIX22959.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Dussert, Bertrand. "Polymerisation de composes aromatiques par oxydation : utilisation de l'ozone et des phenoloxydases, applications au traitement des eaux." Toulouse, INSA, 1987. http://www.theses.fr/1987ISAT0012.

Full text
Abstract:
Elimination efficace par polymerisation de composes aromatiques dans des effluents industriels (petrochimie,. . . ) par application d'une faible quantite d'ozone ou d'enzymes de type phenoloxydases (peroxydase, laccase, tyrosinase). Caracterisation et identification des sous produits formes
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography