Дисертації з теми "Techniques in vitro – méthodes"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Techniques in vitro – méthodes.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Techniques in vitro – méthodes".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Chrit, Linda. "Développement de méthodes microspectroscopiques pour l'évaluation in vitro et in vivo de l'hydratation du stratum corneum par des agents cosmetiques." Reims, 2006. http://www.theses.fr/2006REIMP205.

Повний текст джерела
Анотація:
La @peau est un organe complexe qui présente une forte hétérogénéité tant au niveau de sa composition moléculaire qu’au niveau de son organisation structurale. Ces variations dépendent du site anatomique mesuré mais aussi de la profondeur ou couche analysée. Celles-ci peuvent être affectées par des désordres cutanés liés à des pathologies ou encore à des facteurs environmentaux tels que l’exposition solaire, les variations climatiques, les traitements dermatologiques à visé médicamenteux ou cosmétiques. Ces traitements peuvent perturber les propriétés mécaniques de la peau. Ainsi, dans l’objectivation de la recherche cutanée et de la caractérisation de la peau, les méthodes non invasives sont particulièrement recherchées, induisant un essor considérable de l’utilisation de méthodes à spectroscopie vibrationnelle. Ces méthodes permettent une double approche à la fois in vitro et in vivo. Effectivement, le travail de cette thèse a consisté à développer un outil de criblage automatique permettant d'évaluer le pouvoir hydratant, in vitro, de nombreuses entités chimiques dans l’axe soin. Ce travail présenté dans cette thèse démontre ainsi l’apport des techniques de spectroscopie vibrationnelle, Raman et accessoirement infrarouge à l’étude et la compréhension des mécanismes d’action des agents hydratants au sein du stratum corneum. Le développement en parallèle d’une microsonde confocale Raman pour l’étude in vivo a permis d’évaluer les molécules d’intérêts retenues in vitro. Nous avons pu mettre en évidence le pouvoir hydratant de différentes entités chimiques non révélées par les méthodes conventionnelles. Ces méthodes, non invasives et non destructives, permettent l’investigation de la peau humaine dans son état naturel sans altérer sa morphologie, son intégrité et encore sa composition moléculaire, comme par exemple pour des études typologie. Tous ces travaux ont nécessité une approche statistique du traitement des différents spectres basée sur les méthodes d’analyse mixtes de la variance, de décomposition par la méthode des moindres carrées ou encore de classification hiérarchique (HCA)
The @skin is a complex organ which has a high level of heterogeneity at the level its molecular and structural organisation. These variations depend on the depth and site of analysis. Such variations can be affected by subcutaneous disorder related to pathology or environmental factors such as solar exposure, climatic changes, and medical or cosmetic dermatological. These treatments can change the mechanical and optical properties of the skin. Thus, in order to study and characterise the properties of the skin objectively, non-invasive methods have been of particular interest recently, leading to a considerable growth in methods utilising vibrational spectroscopy. Vibrational spectroscopic methods permit characterisation of the Stratum corneum in vitro and in vivo. The work in this thesis was concerned with the construction of an automatic screening tool for the evaluation, in vitro, of the hydration potential of chemical species within the skin. The work presented in this thesis demonstrates that vibrational spectroscopic techniques (primarily Raman and secondarily Infra-Red imaging) have been successfully applied to the analysis and understanding of the mechanisms of hydration of the Stratum corneum by cosmetic agents. These results have also been extended to the development, in parallel, of a confocal Raman microprobe for the evaluation, in vivo, of the retention of molecules of interest in the skin. The hydration potential of different chemical species, which are not accessible by conventional methods, have been elucidated by the methods developed here. These non-invasive and non-destructive methods alow the analysis of the human skin in its natural state without altering its morphology, integrity and molecular composition during measurements of skin-typing, for example. The spectroscopic analysis presented herein required the use of statistical treatments based on mixed analysis of variance, spectral composition by minimum least square methods, hierarchical cluster analysis (HCA)
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Soullier, Noémie. "Evaluation des résultats de la fécondation in vitro : l'apport de l'imputation multiple." Paris 11, 2010. http://www.theses.fr/2010PA11T019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

De, Conto Véronique. "Importance du microenvironnement dans les modèles cérébraux in vitro pour le criblage phénotypique." Thesis, Université de Lille (2018-2021), 2021. http://www.theses.fr/2021LILUS046.

Повний текст джерела
Анотація:
Environ 90% des candidats-médicaments échouent en phase clinique, pour des raisons d’efficacité ou de toxicité qui impliquent souvent le système nerveux central (SNC). Ce fort taux d’échec souligne un manque de pertinence des modèles expérimentaux utilisés en amont, dont les modèles in vitro de cellules humaines. En effet, ces derniers ne prennent pas en compte toute la complexité du SNC, où les neurones organisés en 3 dimensions (3D) interagissent avec leur microenvironnement composé de cellules, de facteurs solubles et des molécules de la matrice extracellulaire (MEC). Les objectifs de ce travail étaient i) d’étudier l’influence de ces trois composantes du microenvironnement sur les cellules neuronales dans des modèles cérébraux in vitro par imagerie cellulaire automatisée, et ii) de développer des modèles cérébraux in vitro plus pertinents pour évaluer les effets neurotoxiques ou thérapeutiques de molécules par criblage phénotypique, notamment dans le cadre de la maladie de Parkinson (MP).Dans un premier temps, la technologie BIOMIMESYS® Brain a été développée. Cette matrice à base d’acide hyaluronique permet de mimer la MEC et de cultiver des cellules cérébrales en 3D dans des plaques 96 puits. La sensibilité des cellules Luhmes, une lignée de neurones dopaminergiques, aux inducteurs de la MP a été étudiée : les cellules ont montré une sensibilité plus faible dans BIOMIMESYS® Brain qu’en 2 dimensions (2D). Cette différence a pu être expliquée par deux phénomènes : une rétention partielle des molécules toxiques dans la matrice, et un phénotype de neurone dopaminergique moins mature qu’en 2D. L’importance du microenvironnement cellulaire a ensuite été étudiée au travers d’une co-culture de cellules Luhmes et d’astrocytes primaires humains en 2D. Cette co-culture a ensuite été transposée dans la matrice BIOMIMESYS®, formant ainsi un modèle complexe incluant à la fois le microenvironnement glial et le microenvironnement matriciel.En parallèle, l’influence du microenvironnement moléculaire a été étudiée sur les cellules SH-SY5Y, une lignée cellulaire issue d’un neuroblastome, couramment utilisée pour évaluer la neurotoxicité de molécules. Dans cette étude, les 24 principaux milieux décrits dans la littérature pour différencier ces cellules en neurones ont été criblés. Les 3 conditions les plus différenciantes en matière de ralentissement de la prolifération cellulaire et de croissance des neurites ont été sélectionnées : l’acide rétinoïque, la staurosporine, et l’Adénosine Monophosphate cyclique (AMPc) associée à du supplément B21. L’expression de marqueurs protéiques neuronaux et la sensibilité des cellules à des composés de toxicités connues ont été mesurées, en 2D et en 3D dans BIOMIMESYS® Brain. La maturité neuronale et la sensibilité aux composés neurotoxiques différaient selon le milieu, en étant les plus hautes en milieu B21+AMPc. La culture en 3D modifiait aussi la réponse des cellules, avec une sensibilité plus faible comparée aux cellules cultivées en 2D.Cette thèse a mis en évidence que le microenvironnement des neurones, qui inclut la MEC, les cellules gliales et les facteurs solubles, modifie la réponse neuronale in vitro et devrait par conséquent être considéré avec attention dans la recherche académique comme industrielle, dès les étapes de criblage de nouveaux médicaments
About 90% of drug candidates fail in clinical trials, for efficacy- and toxicity-related reasons, which often involve the Central Nervous System (CNS). This high failure rate highlights a lack of relevance in experimental models used upstream, including human in vitro models. Indeed, they do not take into account the complexity of the CNS, in which neurons are organized in 3 dimensions (3D) and interact with their microenvironment, composed of cells, soluble factors and extracellular matrix (ECM). The objectives of this PhD were i) to study the influence of these three microenvironment components on neuronal cells in cerebral in vitro models by automatized cellular imaging, and ii) to develop more relevant cerebral in vitro models for phenotypic screening, to assess neurotoxic or therapeutic effects, in the frame of Parkinson’s Disease (PD).First, the BIOMIMESYS® Brain technology has been developed. This acid hyaluronic based-matrix allows the simulation of the ECM and a 3D culture of cerebral cells in 96-well plates. The sensitivity of Luhmes cells, a dopaminergic neuronal cell line, to PD inducers has been studied: the cells displayed a lower sensitivity in BIOMIMESYS® Brain compared to cells cultured in 2 dimensions (2D). This difference was explained by two phenomena: a partial retention of toxic molecules in the matrix, and a lower neuronal maturity compared to cells cultured in 2D.The importance of the cellular microenvironment has been studied through a co-culture of Luhmes cells and primary human astrocytes in 2D. This co-culture has then been transposed in BIOMIMESYS® matrix, to form a complex model including both the glial and the matricial microenvironments.In parallel, the influence of the molecular microenvironment has been studied on the SH-SY5Y cells, a cell line derived from a neuroblastoma, commonly used for neurotoxicity assessment. In this study, the 24 major differentiation media described in the literature to differentiate these cells into neurons have been screened. The 3 most differentiating conditions in terms of proliferation slowdown and neurite elongation have been selected: retinoic acid, staurosporine, and cyclic Adenosine Monophosphate (cAMP) combined to B21 supplement. The neuronal protein marker expression and the cell sensitivity to compounds of known-toxicity have been measured, in 2D and in 3D in BIOMIMESYS® Brain. Both maturity and sensitivity of these neurons varied according to the differentiation medium, and were higher in B21+cAMP. The 3D cell culture modified also the cell response, with a lower sensitivity of cells cultured in 2D.This PhD highlighted that the microenvironment of neurons, including the ECM, the glial cells and the soluble factors, can modify the neuronal response in vitro, and should thus be considered carefully in academic research and as early as possible in the drug discovery industrial process
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Aubert, L'Huillier Carole. "Evaluation du pouvoir bioadhésif de gels à base de techniques "in vitro" : étude de l'influence des facteurs de formulation - choix de la méthode." Paris 5, 1997. http://www.theses.fr/1997PA05P142.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Mejlachowicz, Dan. "Développement de modèles in vitro et in vivo pour analyser la réponse aux radiations ionisantes du tissu thyroïdien normal humain." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL057.

Повний текст джерела
Анотація:
Le seul facteur étiologique démontré pour le cancer de la thyroïde est une exposition aux radiations ionisantes (RI) durant l’enfance. Les études épidémiologiques mesurent un risque significatif de développer un cancer suite à l’exposition pour une dose reçue à la thyroïde d’au minimum 50 mGy, le risque étant proportionnel à la dose. Ce risque est observé après une exposition externe à fortes doses/débits de dose (radiothérapie) et après une contamination à de plus faibles doses de radioisotopes de l’iode. Si des cancers radio-induits (R) se développent à des doses <50mGy, l’excès de cancers ne peut pas être mesuré par l’épidémiologie conventionnelle, d’autant plus que l’incidence des cancers spontanés de la thyroïde (S) augmente. En conséquence, il n’est pas possible de répondre aux interrogations sociétales sur les risques pour la santé d’exposition aux faibles doses délivrées lors d’examens d’imagerie médicale dans la région « tête et cou » chez l’enfant, ou reçues suite aux retombées des accidents de Tchernobyl et Fukushima, et aux essais nucléaires atmosphériques en Polynésie française.Pour répondre à ces interrogations, une meilleure connaissance de l’effet des RI en fonction de la dose et du débit de dose sur la thyroïde humaine est nécessaire. La carcinogenèse thyroïdienne présente des spécificités d’espèces : chez la souris, l’incidence de cancers de la thyroïde S et R est faible, et les quelques tumeurs R qui se développent sont principalement des cancers folliculaires alors qu’ils sont majoritairement papillaires chez l’Homme (S et R).Pour analyser la réponse aux RI du tissu thyroïdien humain normal, nous avons développé plusieurs approches à partir de biopsies de tissu normal provenant de patients ayant subi une thyroïdectomie : des cultures primaires de thyrocytes, des modèles 3D in vitro (thyrosphères, cultures organotypiques) et des xénogreffes chez la souris.Pour les modèles 3D, le maintien de la polarité, de la différenciation cellulaire, de la complexité tissulaire et de l’activité physiologique des cultures ont été contrôlés. Nous avons obtenu des thyrosphères (6 donneurs) organisées en follicules délimitant un lumen composé de thyroglobuline. Nous avons développé des cultures organotypiques en matrigel selon le protocole publié par Toda et al. (thyroïde de porc, 2002) (7 donneurs), et montré un choc hypoxique dans les tissus. Une oxygénation optimale du tissu a été obtenue par une culture en interface air-liquide (ALI) (3 donneurs). En culture ALI, les biopsies sécrétent l’hormone thyroïdienne T4 en réponse à la TSH (1 donneur, 1 semaine). Ce protocole a permis un maintien du tissu sur 4 semaines. Les xénogreffes devraient permettre une analyse à des temps plus tardifs, et ont déjà permis le maintien du tissu sur 5 semaines sur des souris SCID/beige (3 donneurs).En parallèle, nous avons comparé la prolifération, la survie et la cinétique d’induction/réparation des cassures après exposition aux RI de cultures primaires de thyrocytes de patients exposés (radiothérapie) pendant l’enfance (2 donneurs) ou non exposés (3 donneurs). Nous observons de façon reproductible que les thyrocytes exposés sont plus radiorésistants que les thyrocytes non exposés. Ces résultats suggèrent fortement l’existence d’une empreinte à long terme d’exposition aux RI dans le tissu normal, en accord avec l’identification de signatures moléculaires discriminant le tissu normal exposé et non exposé par C Ory et N Ugolin au LCE. Comme suggéré par l’équipe de C Dupuy, cette empreinte pourrait être due à la mise en place d’un stress oxydatif chronique dans la thyroïde suite à l’exposition aux RI.Les modèles développés pendant cette thèse seront essentiels pour comprendre les effets et les risques des RI à faibles et fortes doses, associées ou non aux perturbateurs endocriniens, sur la thyroïde humaine, ainsi que les premières étapes de la carcinogenèse et l’origine de cette empreinte d’exposition persistante sur le long terme
The only demonstrated etiologic factor for thyroid cancer is an exposure to ionizing radiation (IR) during childhood. Epidemiological studies can measure a significant risk to develop a cancer following thyroid doses above 50 mGy. This risk is observed after external exposure to high doses/dose rates (radiotherapy) and after contamination of iodine radioisotopes at lower doses.As the risk decreases with the dose, if radiation-induced cancers (R) develop after thyroid doses <50mGy, an excess of cancers cannot be measured by conventional epidemiology, especially because the incidence of sporadic cancers (S) increases. Consequently, it is not possible to answer the societal debates concerning the risk associated to low doses exposure, such as the risk for patients during medical diagnosis by imagery technics in the "head and neck" area especially for children, following Chernobyl and Fukushima accidents fallout, and following contamination after the atmospheric nuclear tests in French Polynesia.To answer the questionnning about the risk of low doses IR on human thyroid, a better knowledge of the exposure according to doses and dose rates is necessary,. Thyroid carcinogenesis presents specificities among species. Indeed, in mice, S or R thyroid cancers incidence is low, and the few R tumors developping are mainly follicular cancers whereas there are mainly papillary cancers in humans (S and R).In order to analyze the normal human thyroid tissue response to IR, we have developed several approaches using biopsies of non-pathological tissues from patients who have undergone thyroidectomy: primary thyrocyte cultures, in vitro 3D models (thyrospheres and organotypic cultures) and xenografts in mice.For 3D models, maintenance of polarity, cell differentiation, tissue complexity and physiological activity of the cultures were controlled. We obtained thyrospheres (6 donors) organized in follicles delimiting a lumen composed of thyroglobulin. We used the matrigel-based protocol described by Toda et al. (2002) for organotypic cultures of porcin tissue, and showed an hypoxic stress in the human tissue (7 donors). An optimal oxygenation of the tissue was obtained by air-liquid interface culture (3 donors). In ALI organotypic cultures, a secretion of free thyoid hormone T4 was observed (1 donor, at 1 week), and this protocol allowed the tissue maintenance over 4 weeks. Mouse xenografts permitted human tissue maintenance over a period of at least one year, we already succeed in maintaining the thyroid tissue over 5 weeks in SCID/beige mice (3 donors).In parallel, we compared the proliferation, the survival and the kinetics of DNA strand breaks induction/repair after exposure of thyrocytes from patients exposed (radiotherapy) during childhood (2 donors) or unexposed (3 donors), in primary cultures. We reproducibly observed that exposed thyrocytes are more radioresistant than unexposed thyrocytes. These results strongly suggest the existence of a long-term phenotypic signature of exposure to IR in normal thyroid tissue, consistent with the identification of molecular signatures discriminating exposed and unexposed normal thyroid tissue by C Ory and N Ugolin in the laboratory. As suggested by C Dupuy's team, this imprinting could be due to the development of a chronic oxidative stress following IR exposure in the thyroid.The models developed during this thesis will be essential to understand low and high doses IR effects and risks on the human thyroid. They will also be usefull to asses the effects of endocrine disruptors (ED) on human thyroid, alone or in cocktail and estimate if this ED exposure may modify the radiosensitivity of the thyroid. These models will be used to analyse the first steps on radiation-induced thyroid carcinogenesis as well as the origin of this persistent long-term exposure imprinting
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Ostrovidov, Serge. "Evaluation des activités antioxydantes de nouvelles molécules séléniées par méthode in vitro utilisant la culture cellulaire et la cytométrie de flux." Nancy 1, 1997. http://www.theses.fr/1997NAN19008.

Повний текст джерела
Анотація:
Les espèces oxygénées réactives (ROS) sont des métabolites normaux de la cellule. Cependant en trop grande quantité, ils deviennent néfastes pour l'hôte. Aussi afin de rechercher de nouvelles molécules séléniées ayant une activité antioxydante, nous avons créé un modèle expérimental basé sur la culture de cellules hybridomes Mark 3 et la mesure du taux de radicaux libres intracellulaires par cytométrie en flux à l'aide des sondes fluorescentes DHR 123 et DCFH-DA respectivement spécifiques de l'anion superoxyde (O2-) et des peroxydes (ROOH). Après une étude des effets d'un stress oxydant par H2O2 sur la prolifération cellulaire et sur la formation des ROS intracellulaires notre modèle expérimental a été validé par la mesure de l'activité antioxydante de la vitamine E, la mélatonine, le Ginkgo bibola (Tanakan ®) et la N-acétylcystéine. Nous avons alors effectué un "screening" antioxydant sur 34 composés de synthèse analogues de l'ellipticine et les avons classés selon la force de leur activité antioxydante. Enfin après sélection d'une de ces molécules pour ses propriétés antioxydantes, une étude plus approfondie de son activité a été effectuée afin de déterminer la nature des ROS préférentiellement éliminés par celle-ci ainsi que les compartiments cellulaires où elle agit. De plus il est à noter que ce modèle expérimental construit pour rechercher des activités antioxydantes peut aussi être utilisé pour rechercher des activités oxydantes ce qui peut être utile à la recherche d'anti-tumoraux.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Biri, Venceslas. "Techniques d'animation dans les méthodes globales d'illumination." Université de Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0155.

Повний текст джерела
Анотація:
Dans cette thèse, nous abordons la problématique de l’animation dans le rendu. Celle-ci se découpe en deux grandes parties : rendu sans et avec milieux participants. Dans la première partie, après un survol des techniques d’illumination d’une scène, nous présentons un nouvel algorithme, fondé sur la radiosité et utilisant des bases de fonctions. Il prend profit de la cohérence temporelle pour calculer des animations deux à trois fois plus rapidement, et ce même lorsque la source de lumière se déplace. Dans la seconde partie, après une revue des différentes techniques de rendu de milieux participants , nous proposons un premier algorithme permettant de modéliser, de simuler et d’animer du brouillard non homogène en temps réel. Puis nous proposons un autre algorithme temps réel de rendu en simple diffusion, représentant les ombres surfaciques et volumiques. Finalement, nous tentons de généraliser notre précédent algorithme de radiosité dynamique dans le cas des milieux participants
In this thesis, we focus on the problems of rendering in dynamic scene. It contains two main parts : one without participating medium and the other one with. In the first part, after an overview of rendering methods, we present a new algorithm, based on radiosity using higher order bases. It takes profits of temporal coherence to calculate animations twice to three times faster, even when light sources are moving. In the second part, after seeing the different algorithms that are able to render participating medium , we propose a first method allowing to model, simulate and animate non homogeneous fog in real time. Then, we propose an real time algorithm, in single scattering, representing surface and volume shadows. Finally, we try to generalise our preceding dynamic radiosity algorithm in the presence of the participating mediums
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Maire, Sylvain. "Quelques Techniques de Couplage entre Méthodes Numériques Déterministes et Méthodes de Monte-Carlo." Habilitation à diriger des recherches, Université du Sud Toulon Var, 2007. http://tel.archives-ouvertes.fr/tel-00579977.

Повний текст джерела
Анотація:
Les travaux présentes s'inscrivent dans le cadre de la réduction de variance pour les méthodes de Monte-Carlo et plus généralement dans l'optimisation de méthodes numériques à l'aide de couplage entre des méthodes déterministes et des méthodes probabilistes. Trois thèmes principaux seront abordés à l'aide de ces techniques: l'intégration numérique sur un hypercube, la résolution d' équations aux dérivées partielles linéaires et le calcul des éléments propres principaux (valeur propre et vecteur propre) de certains opérateurs linéaires.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Lopez, Nestor. "Spécification formelle de systèmes complexes : méthodes et techniques." Paris, CNAM, 2002. http://www.theses.fr/2001CNAM0410.

Повний текст джерела
Анотація:
Nous proposons une methodologie de specification et de construction de systemes qui transforme la specification evenementielle d'un systeme en une specification pre-post, ce qui permet d'effectuer le processus de developpement a l'aide de techniques connues de derivation de programmes par raffinements et sans rompre le processus de raisonnement formel. Le role de la specification evenementielle est de decrire les interactions du systeme avec son environnement. Le resultat de la transformation est un module qui fournit les moyens de communication du systeme. Pour prendre en compte les aspects concurrents et distribues d'un systeme, nous proposons la notion de module partage. Nous utilisons des variables auxiliaires, non implantees, pour exprimer des proprietes abstraites et pour faire la preuve de correction des implantations effectuees. Pour repondre au besoin de reutilisation de modules existants, nous proposons une technique pour completer une specification a l'aide de variables auxiliaires afin de l'adapter a la solution de problemes particuliers, tout en preservant l'implantation fournie initialement.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Trinh, Thi Huong. "Adapting recent statistical techniques to the study of nutrition in Vietnam." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10010/document.

Повний текст джерела
Анотація:
L'objectif de cette thèse est d'adapter des méthodes récentes de statistique pour apporter une vision nouvelle de la transition nutritionnelle au Vietnam. Chapitre 1, nous faisons une brève introduction. Nous considérons que le Vietnam est une étude pilote sur le problème de la nutrition. Chapitre 2, nous revenons sur la question de l'estimation de la relation entre la prise de calories par personne et le revenu en utilisant six vagues de l'enquête VHLSS Survey sur la période 2004-2014. Nous adoptons plutôt la famille des modèles généralisés additifs (GAM) dans lesquels seul le revenu intervient de façon non linéaire. Nous comparons ces modèles avec une procédure récente. Les résultats mettent en relief une réponse forte de la prise de calories à un accroissement du revenu pour les foyers les plus pauvres. Chapitre 3, nous utilisons des méthodes de décomposition pour évaluer les déterminants des changements de consommation de macronutriments au Vietnam en utilisant les vagues 2004 et 2014. La méthode de décomposition récente proposée par Rothe (2015) a pour but de poursuivre la décomposition plus loin en décomposant l'effet de composition en trois composantes: la contribution directe de chaque covariable, plusieurs effets d'interaction d'ordre deux ou supérieur et un effet de la dépendance. Rothe utilise des copules pour modéliser les effets de dépendance. Chapitre 4, nous nous concentrons sur la composition de la diète en modélisant les proportions de protéines, de matières grasses et de glucides dans la prise moyenne de calories par personne. Nous utilisons des outils descriptifs pour montrer l'évolution des trois composantes au travers du temps et modélisons ensuite la consommation de macronutriments en fonction des caractéristiques des ménages avec des modèles de régression pour données de composition. Nous établissons la formule permettant le calcul des semi-elasticités de la consommation de macronutriments par rapport à la dépense totale de nourriture. Chapitre 5, nous nous penchons sur la relation entre les parts de macronutriments et l'indice de masse corporelle (IMC). Nous construisons un modèle de régression compositionnelle incluant un total pour expliquer les quantiles de l'indice de masse corporelle. Nous calculons ensuite les élasticités de l'IMC par rapport à chaque macronutriment. Notre travail est basé sur l'utilisation de la base de données de l'enquête GNS 2009-2010. Les résultats révèlent d'abord des effets significatifs de facteurs socio-économiques
The objective of this thesis is to adapt recent statistical techniques and to bring new insights on the nutritional transition in Vietnam. Vietnam is a lower middle income country but it now faces the double burden of malnutrition characterized by the coexistence of undernutrition along with overweight and obesity, or diet-related noncommunicable diseases. Chapter 1 gives a brief introduction to this thesis. We consider Vietnam is a pilot case study about nutrition. Chapter 2, we revisit the issue of estimating the relationship between per capita calorie intake and income using six waves of the Vietnam Household Living Standard Survey over the period 2004-2014. Characterizing the response of calorie intake to income for the poorest households is a prerequisite for considering policies aimed at reducing starvation and correcting nutritional deficiencies. The classical log-log specification does not capture the nonlinearity of this relationship. We adopt rather various generalized additive models (GAM) specifications where only income is supposed to act in a nonlinear fashion and compare them with a recent procedure. The results highlight the strong response of calorie intake to an increase in income for the poorest households. A byproduct of the proposed methodology is the decomposition of the evolution of average calorie intake between the two waves into the part due to the change of population characteristics distributions and those coming from the change in calorie-income relationship, shedding new light on the nutritional transition in Vietnam. Chapter 3, we use decomposition methods to assess the determinants of changes in macronutrients consumption in Vietnam using the 2004 and 2014 waves. The common objective of decomposition methods is to decompose between-group differences in economic outcomes such as wage or income, into two components: a composition effect due to differences in observable covariates across groups, and a structure effect due to differences in the relationship that links the covariates to the considered outcome. The recent decomposition procedure proposed by Rothe (2015) aims at decomposing further the composition effect into three types of components: the direct contribution of each covariate, several two way and higher order interaction effects and a dependence. Rothe (2015) uses a parametric copula to model the dependence effects and we adapt this approach to the case of a mixture of continuous and discrete covariates. Chapter 4, we focus on food composition in terms of diet components. We consider modeling the proportions of protein, fat and carbohydrate in the average per capita calorie intake. We use descriptive tools, such as compositional biplots and ternary diagrams, to show the evolution of the three components over the years and then model macronutrients composition as a function of household characteristics, using compositional regression models. We derive the expression of the semi-elasticities of macronutrients shares with respect to food expenditure. We then compare the interpretations of these shares semi-elasticities to that of volumes of macronutrients and of total calorie intake obtained using classical linear models. Chapter 5, we focus on the relationship between macronutrient balances and body mass index. We develop a compositional regression model including a total at various quantile orders. We then compute the elasticities of BMI with respect to each macronutrient and to the total consumption. Our empirical research is based on the General Nutrition Survey 2009-2010. The results first reveal significant impacts of some socio--economics factors. All elasticities of BMI with respect to each macronutrient increase as BMI increases until a threshold (BMI=20) and then remain stable. Chapter 6, we briefly give our perspectives of future research in both mathematics and nutrition
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Boubendir, Yassine. "Techniques de décomposition de domaine et méthodes d'équations intégrales." Toulouse, INSA, 2002. http://www.theses.fr/2002ISAT0014.

Повний текст джерела
Анотація:
L'objet de cette thèse est l'extension de la méthode de décomposition de domaine sans recouvrement introduite par P. -L. Lions et B. Després à la résolution par équations intégrales de problèmes de diffraction d'ondes. Nous avons tout d'abord amélioré la convergence des algorithmes de décomposition de domaine en amortissant la partie évanescente de l'erreur de résolution. Nous avons montré ensuite comment la méthode de décomposition de domaine appliquée à la résolution d'un problème de diffraction faisant intervenir des couches de diélectrique par équations intégrales pouvait diminuer de façon notable la taille des problèmes discrets à résoudre et améliorer leur conditionnement. Dans le cas d'un diélectrique non-homogène, les méthodes de résolution standard utilisent un couplage éléments finis-équations intégrales. En utilisant la méthode de décomposition de domaine, nous avons développé des procédés efficaces et robustes qui découplent complètement au niveau de chaque itération la résolution par éléments finis et celle par équations intégrales. L'utilisation des méthodes de décomposition de domaine par éléments finis nodaux se heurtait jusqu'à maintenant aux problèmes de raccord au niveau des points de jonction. Les résultats de convergence théoriques connus jusqu'à présent pour les problèmes discrets étaient limités à des résolutions par éléments finis mixtes. En montrant que ces résolutions sont équivalentes en fait à un schéma non conforme, nous avons obtenu une explication de la propriété de ces méthodes d'éviter la difficulté du traitement des points de jonction. Cependant, ces méthodes restent plus chères et moins standard que les méthodes nodales. Nous avons pu développer un procédé de traitement des points de jonction qui permet de développer une méthode de décomposition de domaine au niveau discret qui est exactement une méthode itérative de résolution du problème complet. Nous avons établi de façon théorique la convergence de cet algorithme et prouvé que dans certaines situations l'erreur était diminuée par une contraction dont la constante est indépendante du maillage
The aim of this thesis is to develop a non-overlapping domain decomposition method of integral equations for solving scattering harmonic wave problems by perfectly conducting obstacle covered by a dielectric layer. This class of methods was introduced by P. -L. Lions and B. Després and allows us to decrease the size of the discrete problems and improve their condition numbers. We have improved the convergence of the domain decomposition algorithm by introducing the evanescent part of the error. In non-homogeneous dielectric device cases, standard solutions use completely coupled BEM-FEM techniques. The method proposed in this work uncouples the two solutions procedures. One drawback of the domain decomposition method when discretization is performed with nodal finite element, is to define the transmission conditions at the level of the cross points. Theoretical convergence results are only known for discrete mixed finite elements. We have clarified the reason for wich these methods avoid the cross points problem by proving that they are equivalent to a non-conformal scheme. However, these methods are more complex and remain more computationally expensive than nodal finite elements aproaches. We have developed a method that considers the cross points in the case of nodal finite elements. This method allows us to develop a discrete domain decomposition method that is exactly an iterative solution of the initial problem. We have proven the theoretical convergence of this algorithm and have shown on particular cases that the rate of convergence is independent of the mesh
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Monnom, Olivier. "Méthodes algorithmiques de traitement d'images en holographie digitale." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210840.

Повний текст джерела
Анотація:
Le présent travail traite de problèmes particuliers en traitement de signal soulevés par l'holographie digitale. Le premier chapitre présente l'holographie et l'holographie digitale. Le deuxième chapitre aborde le problème des artéfacts apparaissant sur le bord des hologrammes lorsque ceux-ci sont propagés numériquement. Le troisième chapitre propose une méthode automatique pour éliminer la phase de fond d'un hologramme. Le quatrième chapitre montre comment améliorer la visibilité des hologrammes en supprimant les objets diffractants. Le cinquième chapitre expose un logiciel d'aide à l'analyse des hologrammes enregistrés dans le temps. On montre la capacité du logiciel à effectuer du tracking d'objets en trois dimensions à posteriori. Le sixième chapitre traite de la reconnaissance de forme dans les hologrammes, le problème de la reconnaissance de particules micrométriques est abordé. Des conclusions et perspectives terminent le travail.
Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Patel, Minesh M. "In vitro techniques for evaluating mucoadhesion." Thesis, University of Portsmouth, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.326991.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Abu, Sada Marlène. "Etude de gels bioadhésifs à l'aide de méthodes "in vitro"." Paris 5, 1993. http://www.theses.fr/1993PA05P141.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Pointud, Françoise. "Méthodes d'étude de la tolérance cutanée "in vivo in vitro"." Paris 5, 1989. http://www.theses.fr/1989PA05P017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Zouagui, Tarik. "Approche fonctionnelle générique des méthodes de segmentation d'images." Lyon, INSA, 2004. http://theses.insa-lyon.fr/publication/2004ISAL0042/these.pdf.

Повний текст джерела
Анотація:
La segmentation d'image est une opération de traitement d'image de bas niveau qui consiste à localiser dans une image les régions (ensembles de pixels) appartenant à une même structure (objets ou scène imagés). Cette opération est à la base de nombreuses applications tant en vision industrielle, qu'en imagerie médicale. De nombreuses recherches ont eu lieu dans le passé sur les méthodes de segmentation. Il en résulte un très grand nombre de méthodes dont la comparaison, soit en terme de structure soit en terme de performance, est très difficile. L'objectif de cette thèse est de proposer une nouvelle vision de la segmentation d'images basée sur un modèle fonctionnel (MF) original. Ce modèle qui décrit la segmentation en termes de fonctions, se présente sous la forme d'un opérateur de segmentation (OS). L'OS est composé de cinq blocs élémentaires enchaînés au cours d'un processus itératif qui correspond au processus de segmentation. Ce modèle fonctionnel unifie les méthodes de segmentation sous un formalisme commun et permet une meilleure compréhension de ces méthodes. En effet, la décomposition avec la même logique de techniques de segmentation (simple ou complexe) a priori totalement différentes a été obtenue et implantée. Cela a permis de montrer la généricité du modèle proposé et son utilité pour la structuration, la comparaison et l'implantation logicielle des nombreuses méthodes de segmentation. Ces décompositions qui ont conduit à un certain nombre de blocs fonctionnels indépendants, ont servi à la réalisation d'un logiciel modulaire dénommé GenSeg. Ce logiciel peut aider à terme à construire de nouvelles techniques de segmentation
Image segmentation is a low-level image processing operation, which consists in recognizing homogeneous regions within an image as distinct and belonging to different objects. A wide range of works has been undertaken to achieve this aim and segmentation has been used in applications ranging from industrial to medical uses. One of the results, is a very great number of segmentation methods, which makes the task of comparing them a very difficult challenge. We propose a new approach of the image segmentation methods based on a functional model (FM). The core of the functional model is a segmentation operator (SO) composed of five elementary blocks called in an iterative process. The functional model unifies segmentation methods under the same framework and allows a better understanding of these methods. Indeed, the decomposition with the same logical way of various segmentation techniques has been obtained and implemented. This showed the genericity of the model and its usefulness in structuring and implementing segmentation methods. We propose also a multi-operator model which represents complex segmentation methods like multiresolution or agent-based methods. The decompositions led to independent functional blocks which have been used to realize a modular software called GenSeg. This software can help in implementing segmentation techniques and in building new methods as well
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Bouce, Sylvain. "Méthodes et justification des techniques de l'économie de sang homologue." Caen, 1991. http://www.theses.fr/1991CAEN3120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Legrand, Claire. "Méthodes d'étude de la tolérance oculaire "in vivo" et "in vitro"." Paris 5, 1992. http://www.theses.fr/1992PA05P079.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Sadon, Caroline. "Apport des méthodes biochimiques pour l'évaluation de la néphrotoxicité "in vitro"." Paris 5, 1991. http://www.theses.fr/1991PA05P017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Nascimento, Pagliarini Samuel. "Méthodes d'analyse et techniques d'amélioration de fiabilité pour les circuits numériques." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0060/document.

Повний текст джерела
Анотація:
Au cours des dernières années, un développement continu a été observé dans les domaines des systèmes électroniques et des ordinateurs. Une série de mécanismes menaçant la fiabilité ont émergé. Par exemple, des défauts physiques provenant de fils mal lithographié, vias et d'autres dispositifs de bas niveau sont fréquemment observées dans les circuits nanométriques. D'autre part, les circuits sont également devenus plus sensibles aux grèves de particules excitées. Ces deux mécanismes, bien que essentiellement différente, peuvent causer de multiples fautes qui contribuent pour fiabilités plus faibles dans les circuits intégrés. Fautes multiples sont plus inquiétant que de simples car elles sont plus graves et aussi parce qu'ils peuvent surmonter les techniques de tolérance aux fautes. Les circuits numériques sont utilisés dans la plupart des systèmes électroniques aujourd'hui, mais il y a un contexte spécifique dans lequel ils doivent être fiable. Tel contexte comprend des applications de haute dépendabilité. Et cela est le scénario dans lequel cette thèse est conçu. Il a un double objectif: (a) de proposer des méthodes pour évaluer la fiabilité des circuits numériques, et (b) de proposer des techniques d'amélioration de la fiabilité. En ce qui concerne le premier objectif, plusieurs méthodes ont été proposées dans la littérature et le texte montre comment ces méthodes présentent des limitations en ce qui concerne la taille de circuit (nombre de portes), le type de circuit (séquentielle ou combinatoire) et le profil de faute (unique ou fautes multiples). Cette thèse propose deux méthodes pour l'évaluation de la fiabilité. La première méthode est appelée SPR+ et elle vise l'analyse de la logique combinatoire seulement. SPR+ améliore la précision de l'analyse, en tenant compte de l'effet de chaque nœud de fanout par rapport à la fiabilité de l'ensemble du circuit. Une autre méthode, appelée SNaP, est également proposé dans cette thèse. Il s'agit d'une approche hybride, car il est partiellement basée sur la simulation. SNaP peut être utilisé pour la logique combinatoire et séquentielle, et peut également être émulé dans un dispositif FPGA pour une analyse plus rapide. Les deux méthodes, SPR+ et SNAP, peuvent traiter de fautes multiples
With the current advances achieved in the manufacturing process of integrated circuits, a series of reliability-threatening mechanisms have emerged or have become more prominent. For instance, physical defects originating from poorly lithographed wires, vias and other low-level devices are commonly seen in nanometric circuits. On the other hand, circuits have also become more sensitive to the strikes of highly energized particles. Both mechanisms, although essentially different, can cause multiple faults that contribute for lower reliabilities in integrated circuits. Multiple faults are more troubling than single faults since these are more severe and also because they can overcome fault tolerance techniques. Digital circuits are used in most electronic systems nowadays, but there is a specific context in which they are required to be reliable. Such context comprises high-dependability applications. This is the scenario in which this thesis is conceived. It’s goals are twofold : (a) to pro pose methods to assess the reliability of digital circuits, and (b) to propose techniques for reliability improvement. Concerning the first goal, several methods have been proposed in the literature and the text shows how these methods present limitations with respect to circuit size (number of gates), circuit type (sequential or combinational) and fault profile (single versus multiple faults). This thesis proposes two methods for reliability assessment. The first method is termed SPR+ and its targeted at the analysis of combinational logic only. SPR+ improves the average analysis accuracy by taking into account the effect of each fanout reconvergent node to the overall circuit reliability. Another method, termed SNaP, is also proposed in this thesis. It is a hybrid approach since it is partially based on simulation. SNaP can be used for combinational and sequential logic and can also be emulated in an FPGA device for faster analysis. Both SPR+ and SNaP can cope with multiple faults
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Pattisina, Ronny. "Codage et segmentation d'images par des méthodes combinatoires." Dijon, 2002. http://www.theses.fr/2002DIJOS053.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Kozhemyak, Anastasia. "Modèles mathématiques et méthodes de reconstruction pour des techniques émergentes d'imagerie biomédicale." Palaiseau, Ecole polytechnique, 2008. http://www.theses.fr/2008EPXX0007.

Повний текст джерела
Анотація:
L'apparition de techniques avancées en imagerie a amélioré de manière significative la qualité de la surveillance médicale des patients. Les modalités d'imagerie non-invasives permettent aux médecins de faire des diagnostics plus précis et plus précoces et de prescrire des modes de traitement plus performants et plus justes. De multiples modalités d'imagerie sont employées actuellement ou sont en cours d'étude. Dans cette thèse, nous étudions trois techniques émergentes d'imagerie biomédicale :imagerie magnéto-acoustique; imagerie thermographique; endotomographie par impédance électrique. Pour chacune de ces trois techniques, nous proposons des modèles mathématiques et nous présentons des nouvelles méthodes de reconstruction en imagerie médicale.
Стилі APA, Harvard, Vancouver, ISO та ін.
23

`Ubayd, `Alī. "Contribution à l'étude d'écoulement de fluides in vivo et in vitro par la méthode de résonance magnétique nucléaire (R. M. N)." Toulouse 3, 1992. http://www.theses.fr/1992TOU30269.

Повний текст джерела
Анотація:
Ce travail presente une etude de fluides in vivo et in vitro par la methode de resonance magnetique nucleaire (methode de modulation de phase). Apres un appel du phenomene de resonance magnetique nucleaire, nous etudions le profil de vitesse et la contrainte de cisaillement pour l'eau (fluide newtonien), et le carbopol (fluide non newtonien) a differentes concentrations. Nous etudions l'ecoulement du sang humain dans les veines et nous presentons les resultats d'un modele rheologique qui nous permet de les comparer a ceux de l'experience. Les mesures ont ete realisees sur un spectro-imageur bruker 24/40, creant un champ d'induction magnetique de 2,35 teslas. La circulation du fluide pour les experiences in vitro est assuree par une pompe a debit reglable
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Héraud, Sandrine. "Adaptation de méthodes biophysiques et biomécaniques pour l'exploration des peaux reconstruites in vitro." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10307.

Повний текст джерела
Анотація:
On entend par substitut dermo-épidermique un épiderme reconstruit à la surface d'un derme équivalent composé de fibroblastes cultivés classiquement dans un biomatériau support, souvent à base de collagène poreux ou sous forme de gel. Ce support possède ses propres propriétés biomécaniques, influant sur la réponse biomécanique globale des peaux reconstruites, nous nous sommes donc intéressés à un modèle de peau reconstruite sans support, dans lequel le derme équivalent est « auto-assemblé » par les fibroblastes néosynthétisant leur propre matrice extracellulaire (MEC). Notre premier objectif a été d'optimiser et de caractériser ce modèle auto-assemblé en termes de structure, de reproductibilité et de fonctionnalité. Notre second objectif a été d'adapter aux peaux reconstruites in vitro (PR) des outils traditionnellement utilisés pour des études in vivo, pour explorer leurs propriétés biophysiques et biomécaniques. Ces outils permettent une exploration morphologique à des résolutions différentes avec l'échographie, la tomographie à cohérence optique (OCT) et la microscopie confocale à balayage et une exploration fonctionnelle des propriétés biomécaniques des PR par cutométrie. Ces données biophysiques ont ensuite été analysées par rapport aux résultats en histologie, immunohistologie et microscopie électronique à transmission. La cinétique de culture du modèle auto-assemblé sur un temps prolongé a montré la grande stabilité de l'épiderme et le remodelage continuel de la MEC avec notamment l'augmentation des fibres de collagène et d'élastine. Au temps de culture de référence sélectionné, correspondant à l'obtention de la différenciation terminale de l'épiderme, nous avons démontré la reproductibilité des épaisseurs de l'épiderme et du derme en histologie et en OCT, de la maturité de l'épiderme et de la jonction dermo-épidermique et de l'expression dermique de l'élastine colocalisée avec la fibrilline. Sur le plan fonctionnel, nous avons démontré la fonction barrière de l'épiderme via l'imperméabilité du stratum corneum et des jonctions serrées
A skin equivalent consist of a epidermis reconstructed on the top of a dermis equivalent classically composed of fibroblasts cultured into a biomaterial scaffold which is often a collagen gel or sponge. This scaffold hold its own mechanical properties, influencing the global skin equivalent biomechanical response, so we choose to develop a scaffold-free skin equivalent (SFSE), based on the ability of fibroblasts to synthezise their own extracellular matrix. Our first objective was to optimize and characterize the structure, the reproducibility and functionality of this scaffold-free model. Our second goal was to adapt biophysical and biomechanical tools classically used for in vivo evaluation to in vitro skin equivalents. Their morphology was explored with different resolutions using echography, optical coherence tomography (OCT) and laser scanning microscopy whereas biomechanical functionality was evaluate by a suction test, the cutometry. This biophysical data were compared to more classical histological, immununohistological and transmission electronic microscopy results. The long-term culture of the scaffold-free model showed the good stability of epidermis and the continuous remodelling of MEC with notably an increase of collagen and elastin fibers. We selected a reference culture time, corresponding to the complete terminal differentiation of epidermis. At this culture time, we showed the epidermis and dermis thickness reproducibity in histology and OCT, the constant epidermis and dermo-epidermal junction maturity and the dermal expression of elastin, colocalized with fibrillin. The barrier function of epidermis was also demonstrated via stratum corneum and tight junctions impermeability
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Habka, Dany. "Modélisation toxico-pharmacocinétique à partir de méthodes bioinformatiques et de tests in vitro." Compiègne, 2011. http://www.theses.fr/2011COMP1941.

Повний текст джерела
Анотація:
L'objectif de la thèse est de développer et d'évaluer une approche alternative pour prédire les profils cinétiques de molécules chez l'Homme. Dans cette approche, la disposition de substance dans l'organisme est décrite par un modèle PBPK. Ce dernier est paramétré en utilisant des outils statistiques et diverses sources d'informations. La paramétrisation du modèle PBPK dans le cadre d'une approche intégrée in silico/in vitro a été évaluée. Nos résultats ont montré que la pertinence des prédictions du profil cinétique dépend de la qualité des données et de l'état de notre connaissance sur la molécule. La possibilité d'échec de la méthodologie est donc importante. Nous avons alors évalué 2 pistes pour améliorer la prédictibilité de l'approche. Tout d'abord, nous avons évalué un nouveau système dynamique in vitro développé à l'UTC. Ce dernier offre un environnement plus réaliste pour les cellules en culture par rapport aux systèmes classiques; l'espoir étant d'améliorer la pertinence des estimations in vitro. Notre travail a porté sur la modélisation de cinétiques in vitro dans le système. Nos résultats préliminaires sur le métabolisme hépatique sont encourageants. Ensuite, nous avons évalué la généralisation de l'approche intégrée in silico / in vitro en intégrant d'informations in vivo disponibles chez l'Homme. Nous avons choisi l'ifosfamide comme preuve de concept. Nos résultats ont montré que toutes les données (QSAR, in vitro et in vivo) étaient nécessaires pour paramétrer le modèle. Enfin, nous avons montré un bon niveau prédictif du modèle paramétré en réalisant des exercices d'extrapolation entre différentes doses d'administration et entre individus de différent âge
In this work we report calibration methodologies of PBPK models using methods that are alternatives to animal experimentations. Our aim was to develop predictive PBPK models of xenobiotics disposition in humans. PBPK / in vitro / in silico approaches have already been implemented in several commercial PK softwares. We evaluated the predictability of this approach and showed that the goodness of the PK predictions was widely dependent on the precision of ADME parameters estimation, in particular relative to partition coefficients and metabolic parameters. To increase the predictability of PBPK models, we investigated two approaches. First we investigated the development of realistic techniques like cell microchips which provide an in vivo-like environment for cells in culture and may lead to more accurate estimations of ADME parameters, notably metabolism. We evaluated preliminary metabolic data obtained on a hepatic cells microchip developed by UTC. For this purpose, we proposed a mathematical model that account for the unspecific binding to the device and cell constituents. Our results showed that the metabolic clearance predictions were equally or more accurate than the predictions made using static devices. Second the calibration of PBPK models may combine in silico, in vitro information together with in vivo data available for humans like blood concentrations. To illustrate this PBPK / QSAR / in vitro / in vivo approach, we developed a PBPK model for ifosfamide. This exercise emphasized the complementarities of the several information sources used in the calibration step. Once parameterized, the model was used to extrapolate between doses and population groups
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Divkovic, Maja. "Probing skin sensitisation mechanisms using in vitro proteomics techniques." Thesis, Imperial College London, 2005. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.428574.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Salaud, Céline. "Reconstruction in vitro d'un glioblastome par techniques de bioimpression." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT1032.

Повний текст джерела
Анотація:
Les glioblastomes (GBM) sont des tumeurs cérébrales de mauvais pronostic dont le traitement repose sur l’exérèse suivi d’une radiochimiothérapie, leur médiane de survie est de 15 mois. Il est démontré que le microenvironnement tumoral (MET) des GBM, comporte de nombreuses cellules comme les fibroblastes associés au cancer (CAF) et joue un rôle important dans la survie, la croissance et la résistance. Il est donc nécessaire de trouver un modèle pré-thérapeutique le plus proche des conditions humaines afin de comprendre les mécanismes de tumorigenèse du GBM. Dans un premier temps, nous avons étudié la littérature pour identifier tous les mécanismes de résistance. Il semblerait que les cellules quiescentes, présentes dans le MET, soient déterminantes. Dans un second temps, nous avons mis au point un modèle de tumoroïde 3D en utilisant des cultures dérivées de patients. Nous avons défini la composition de la matrice ainsi que les concentrations optimales des cellules en culture. Un modèle mathématique a été développé pour déterminer la prolifération et la forme des tumoroïdes. Nous avons ensuite étudié le rôle des CAF. Ils transfèrent leurs mitochondries par des tunneling nanotubes (TNT), des vésicules extracellulaires ou par cannibalisme aux cellules cancéreuses. Ce transfert contribue à la prolifération et à la résistance au traitement. Ces modèles de cultures primaires de GBM en 3D sont la première étape indispensable pour espérer créer des traitements personnalisés basés sur les prélèvements tumoraux des patients
Glioblastomas (GBMs) are brain tumors with a poor prognosis, treatment is based on surgical removal followed by radiochemotherapy and the median survival is 15 months. The reason of therapeutic resistance is complex. GBMs are extremely heterogeneous in their composition. Tumor microenvironment (TME) is composed of numerous different populations including cancer-associated fibroblast (CAF) and plays an important role in survival, growth and resistance of the tumor. It is therefore necessary to find a pretherapeutic model closest to the in vivo conditions to improve our knowledge of tumoregenesis. Fist, we present a review of literature of resistance mechanisms. The quiescent cells, present in the TME, may have an important role. Second, we developed a 3D tumoroid model using patient-derived cultures. We determined optimal matrix composition and cell concentration. A mathematical model was developed to determine proliferation and form of tumoroids. Third, using our tumoroid models, we showed CAF protection to GBM cells to therapy. Fourth, we studied interaction between CAF and GBM cultures in co-culture. CAF transfer mitochondria by tunnelling nanotubes (TNT), extracellular vesicles or cannibalism. Mitochondrial transfer contributes to proliferation and resistance to treatment. These 3D tumor models are the first step to create personalized treatments based on tumor samples from patients
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Petroiu, Nicoletta. "Implantation des nouvelles méthodes et techniques dans l'apprentissage des élèves sourds et malentendants." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2051/document.

Повний текст джерела
Анотація:
Cette recherche propose d’étudier et de présenter des supports susceptibles d'améliorer le processus d'apprentissage des personnes malentendantes et sourdes par la médiation de nouveaux outils comme les tablettes tactiles. La question est de savoir si l’introduction de ces nouveaux outils, pourrait permettre la création de didacticiels adaptés aux spécificités cognitives des enfants sourds.Dans le contexte actuel, notre hypothèse est que les nouvelles technologies informatiques et les outils numériques (comme les tablettes tactiles) influenceraient positivement le processus d’apprentissage des élèves sourds et malentendants.En conséquence, nous avons créé un logiciel éducatif, Digisthésia, qui a été conçu et adapté aux besoins des élèves sourds et malentendants. Le but de cet outil était de développer et d’améliorer 4 des principales potentialités cognitives : l’attention, la mémoire, la vitesse de traitement et la résolution de problèmes.Notre protocole a mobilisé 80 élèves de 7 collèges de Lyon et de la périphérie lyonnaise : 40 élèves avec différents degrés de déficience auditive, des sujets implantés et appareillés (20 participants ont utilisé le logiciel éducatif Digisthésia / 20 personnes ont fait partie du groupe de contrôle) ainsi que 40 élèves sans déficiences auditives (20 participants qui ont utilisé notre logiciel éducatif sur tablette tactile / 20 élèves ont fait partie du groupe témoin). Les résultats indiquent que la médiation par les nouvelles technologies a renforcé les potentialités cognitives des élèves sourds et malentendants. Nous avons observé un progrès au niveau de l’apprentissage des participants sourds et malentendants suite à l’utilisation du logiciel éducatif Digisthésia sur tablette tactile
This research proposes to study and present materials that can improve the learning process for people who are hard of hearing and deaf by leveraging the use of new tools such as touch tablets. The question is whether the introduction of these new tools could allow the creation of software tools that more adapted to the cognitive specificities of deaf children.In the current context, our hypothesis is that new computer-base technologies and digital tools (such as touch tablets) would positively influence the learning process for students who are deaf and hard of hearing.As a result, we have created the educational software Digisthésia that has been designed and adapted to the needs of students who are deaf and hard of hearing. The aim of this tool was to develop and improve 4 important cognitive parameters such as attention, memory, processing speed and problem solving.Our protocol mobilized 80 students from grade schools from and near Lyon: 40 students suffering from different degrees of hearing impairment, with an without cochlear implants (20 subjects used the tablet/20 subjects were part of the control group). As well as 40 students with no hearing impairments (20 subjects who used the educational software Digisthésia and the tablet /20 subjects who were part of the control group).The results indicate that leveraging the new technologies has enhanced the cognitive potential of deaf and hard of hearing students. We have seen progress in the learning of deaf and hard of hearing participants as a result of the use of tablets and our software
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Labussière, Cécile. "Le rayonnement électromagnétique des circuits Intégrés : techniques de caractérisation et méthodes de modélisation." Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000321/.

Повний текст джерела
Анотація:
Les constantes avancées technologiques dans le domaine des semiconducteurs ont permis une augmentation des fréquences de fonctionnement des composants programmables, entraînant l’apparition d’émissions parasites à des fréquences supérieures au GigaHertz. Les progrès en terme d’intégration et de miniaturisation, tant au niveau composant qu’au niveau circuit imprimé, tendent à accroître les phénomènes de couplage parasite par rayonnement direct. Ces dernières années, de nouvelles techniques de mesure ont été proposées afin de caractériser les émissions parasites des circuits intégrés jusqu’à des fréquences atteignant 18 GHz. Après avoir analysé l’origine du rayonnement électromagnétique des circuits intégrés, ce mémoire présente ces nouvelles normes de mesure des émissions rayonnées – la cellule GTEM et le scan champ proche – et souligne la complémentarité de ces deux techniques. Le banc de scan champ proche pour composants développé dans le cadre de cette thèse est également présenté. Une méthodologie de simulation est proposée pour simuler, à partir du modèle ICEM (modèle comportemental permettant de décrire les émissions parasites d’un circuit intégré), les résultats des mesures d’émission rayonnée. Ce flot de simulation est ensuite appliqué pour prédire les émissions électromagnétiques d’un microcontrôleur 16 bits. Une très bonne concordance est observée entre résultats des simulations et données expérimentales. Enfin, ce travail pose les bases d’un modèle ICEM « hautes fréquences » utilisant des matrices de paramètres S pour modéliser les composants à des fréquences supérieures au GigaHertz
The continuous progress in the field of semiconductors makes possible the increase of the operating frequency of programmable components, which leads to the apparition of parasitic emissions at frequencies higher than 1 GHz. Because of the trend to integration and miniaturization, both at component level and at printed circuit board level, the parasitic coupling due to radiation phenomenon has to be more and more taken into account. These last years, new measurement techniques were proposed in order to characterize the parasitic emissions from an integrated circuit up to 18 GHz. After having analyzed the origin of the electromagnetic emissions from an integrated circuit, this document presents these new radiated emissions measurement standards – the GTEM cell and the surface scan method – and underlines the complementarities of the two techniques. The test bench that was developed for scan measurements at component level is also presented. A methodology based on the model ICEM (a behavioral model that describes the electromagnetic emissions from an integrated circuit) is proposed to simulate the results of radiated emission measurements. The simulation flow is then applied to predict the electromagnetic emissions from a 16-bit microcontroller. A very good agreement is achieved between simulation results and experimental data. Finally, the author investigates a "high-frequency" ICEM model that uses S-parameter matrices to model components at frequencies higher than 1 GHz
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Elsayed, Ahmad Jawad. "Mise au point de méthodes polarimétriques pour la stéréovision." Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/ELSAYED_AHMAD_Jawad_2008.pdf.

Повний текст джерела
Анотація:
Les applications de vision par ordinateur nécessitent de plus en plus des outils efficaces pour le calcul des descriptifs scéniques des objets manufacturés. Dans ce cadre, la stéréoscopie apparaît aujourd'hui comme une modalité maîtrisée de reconstruction d'objets tridimensionnels par imagerie optique. Le principe conventionnel repose sur l'acquisition d'une paire d'images issues d'un capteur dont la position aura été modifiée. L'aspect algorithmique lié au traitement est marqué par une étape délicate appelée \appariement" dont l'objectif est de trouver avec la plus grande précision permise les points communs aux deux images, recherche basée à la fois sur les propriétés géométriques des droites dites épipolaires et sur une procédure de minimisation de l'erreur de positionnement. Lorsqu'un objet est transparent ou lorsqu'il présente des arêtes vives devant le capteur, l'aveuglement de la caméra qui en résulte se traduit par une perte d'information de contour portée par les points invisibles ou saturés dans les images stéréoscopiques. En revanche, en imagerie optique active, la possibilité de modifier la polarisation de l'éclairement et celle des états d'analyse permet de faire apparaître les contours transparents ou d'atténuer l'intensité des arêtes vives grâce notamment à la réponse de Fresnel des interfaces, couplée à la diffusion liées aux inhomogénéités surfaciques ou volumiques. Dans ce travail doctoral, nous avons développé une approche stéréoscopique avec les images de Mueller afin de lever les ambiguïtés rencontrées lors d'acquisitions d'images conventionnelles. Une telle modalité, l'imagerie polarimétriques, représente naturellement une solution aux contraintes physiques auxquelles est soumise la stéréoscopie conventionnelle
Within the frame of industrial object inspection, the stereoscopic reconstruction technique seems to be an achieved method for three-dimensional objects reconstruction by optical imagery. The conventional technique rests on the acquisition of a pair of images resulting from a camera sensor which position has been modi¯ed. The algorithmic aspect related to the treatment is marked by a delicate stage called \matching" which objective is to ¯nd with the highest possible degree of accuracy the common points to both images, a search based at the same time on the geometrical properties of the lines known as epipolar and on a procedure of minimization of the error of positioning. When an object is transparent or when it has an active contour in front of the camera sensor, the blindness of the camera which results from it causes a loss of information of contours carried by the invisible or saturated points in the stereoscopic images. On the other hand, active optical imagery consists in modifying polarization states that are generated or analyzed by the illumination or the observation systems. This permits to reveal transparent contours or to attenuate the high reflecting intensities thanks in particular to the Fresnel response of the interfaces, coupled with the di®usion related to the surface or volumetric inhomogeneities. In this work, we have developed a stereoscopic approach based on Mueller images which allows to reduce ambiguities confronted with usual imaging techniques. Such a method, the polarimetric imagery, represents naturally a solution to the physical constraints to which is subjected conventional stereoscopy
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Alcalde, Baptiste. "Advanced techniques for passive testing of communication protocols." Paris 6, 2006. http://www.theses.fr/2006PA066653.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Ogier, Arnaud. "Méthodes de restauration en imagerie médicale tri-dimensionnelle." Rennes 1, 2005. http://www.theses.fr/2005REN1S100.

Повний текст джерела
Анотація:
L'objectif des deux premières parties de cette thèse est d'une part de décrire les ondes ultrasonores et d'autre part d'étudier les différents bruits engendrés par ce système cohérent d'imagerie. Pour cela, une étude statistique est effectuée. L'étude statistique mène à des lois compliquées et nous proposons d'utiliser la transformation de Mellin qui permet dans certains cas de simplifier les calculs. Un simulateur de ces différentes lois est ainsi généré. De plus, des expériences sur un fouillis de billes indiquent que la loi normale peut s'avérer suffisante comme première approximation. Dans la troisième partie de cette thèse, nous retraçons l'état de l'art en restauration d'images issues de capteurs cohérents (laser, SAR, ultrasons,. . . ) et incohérents (optiques). Nous nous attardons sur les méthodes développées ces dix dernières années telles que les EDP, les ondelettes et les filtres de voisinage. La quatrième et dernière partie de cette thèse décrit nos contributions basées sur les travaux de Rudin, Osher et Fatemi portant sur la variation totale. Nous proposons dans une première approche, une modification du schéma originel en adaptant le Lagrangien aux statistiques d'ordres supérieurs de l'image. Ensuite, nous projetons l'image sur une base d'ondelettes et minimisons la variation totale sur les coefficients d'ondelettes. Nous appliquons ces méthodes aux images IRM et ultrasonores, démontrant ainsi la généricité de nos schémas.
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Callac, Philippe. "Recherche de nouvelles méthodes de multiplication conforme in vitro chez l'artichaut : Cynara scolymus L." Paris 11, 1988. http://www.theses.fr/1988PA112287.

Повний текст джерела
Анотація:
In vitro multiplication of globe artichoke is based on shoot apices culture and micropropagation. However, this method cannot be extended to mass production. To try and find new methods, we considered two different approaches somatic embryogenesis and adventive organogenesis. A great number of different explants were cultivated to find out which organs and which stages are the most suitable for callogenesis or organogenesis. Neither organic nor embryogenic calli were obtained. On the other hand, rhizogenesis was obtained from organs such as cotyledons and stamens; caulogenesis was obtained from young receptacles and isolated flowers. It was possible to regenerate plants from shoots produced by these last two organs. In a second step, we studied the way of obtaining shoots from isolated flowers in vitro and their micropropagation. This technique uses a sequence of media, the first being inductive. Histological studies showed that adventive structures originated from axil of sepals. Even though the number of organogenic flowers may be important, only a few produced good quality shoots. This process allows regeneration of virus and bacteria free plants. Yield and conformity problems were considered. Potential applications of this new technique are pointed out
In vitro multiplication of globe artichoke is based on shoot apices culture and micropropagation. However, this method cannot be extended to mass production. To try and find new methods, we considered two different approaches somatic embryogenesis and adventive organogenesis. A great number of different explants were cultivated to find out which organs and which stages are the most suitable for callogenesis or organogenesis. Neither organic nor embryogenic calli were obtained. On the other band, rhizogenesis was obtained from organs such as cotyledons and stamens ;caulogenesis was obtained from young receptacles and isolated flowers. Lt was possible to regenerate plants from shoots produced by these last two organs. In a second, step, we studied the way of obtaining shoots from isolated flowers in vitro and their micropropagation. This technique uses a sequence of media, the first being inductive. Histological studies showed that adventive structures originated from axil of sepals. Even though the number of organogenic flowers may be important, only a few produced good quality shoots. This process allows regeneration of virus and bacteria free plants. Yield and conformity problems were considered. Potential applications of this new technique are pointed out
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Zidane, Karine. "Techniques d’amélioration des performances des méthodes d’accès aléatoire synchrones pour les communications par satellite." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0030/document.

Повний текст джерела
Анотація:
L’optimisation des communications par satellite devient un enjeu crucial pour fournir un accèsInternet aux zones blanches et/ou défavorisées et pour supporter des réseaux à grande échelle.Dans ce contexte, l’utilisation des techniques d’accès aléatoires sur le lien retour permetd’améliorer les performances de ces systèmes. Cependant, les techniques d’accès aléatoireclassiques comme ‘Aloha’ et ‘Slotted Aloha’ ne sont pas optimales pour la transmission dedonnées sur le lien retour. En effet, ces techniques présentent un taux élevé de pertes depaquets suite aux collisions. Par conséquent, des études récentes ont proposé de nouvellesméthodes d’accès aléatoire pour résoudre les collisions entre les paquets et ainsi, améliorerles performances. En particulier, ces méthodes se basent sur la redondance de l’informationet l’annulation successive des interférences. Dans ces systèmes, l’estimation de canal sur le lien retour est un problème difficile en raison du haut niveau de collisions de paquets. Dans une première contribution dans cette thèse, nous décrivons une technique améliorée d’estimation de canal pour les paquets en collision. Par ailleurs, nous analysons l’impact des erreurs résiduelles d’estimation de canal sur la performance des annulations successives des interférences. Même si les résultats obtenus sont encore légèrement inférieurs au cas de connaissance parfaite du canal, on observe une amélioration significative des performances par rapport aux algorithmes d’estimation de canal existants. Une autre contribution de cette thèse présente une méthode appelée ‘Multi-Replica Decoding using Correlation based Localisation’ (MARSALA). Celle-ci est une nouvelle technique de décodage pour la méthode d’accès aléatoire synchrone ‘Contention Résolution diversité Slotted Aloha’ (CRDSA), qui est basée sur les principe de réplication de paquets et d’annulation successive des interférences. Comparée aux méthodes d’accès aléatoire traditionnelles, CRDSA permet d’améliorer considérablement les performances. Toutefois, le débit offert par CRDSA peut être limité à cause des fortes collisions de paquets. L’utilisation deMARSALA par le récepteur permet d’améliorer les résultats en appliquant des techniques de corrélation temporelles pour localiser et combiner les répliques d’un paquet donné. Cette procédure aboutit à des gains en termes de débit et de taux d’erreurs paquets. Néanmoins, le gain offert par MARSALAest fortement dépendant de la synchronisation en temps et en phase des répliques d’un mêmepaquet. Dans cette thèse, nous détaillons le fonctionnement de MARSALA afin de corriger ladésynchronisation en temps et en phase entre les répliques. De plus, nous évaluons l’impactde la combinaison imparfaite des répliques sur les performances, en fournissant un modèle analytique ainsi que des résultats de simulation. En outre, plusieurs schémas d’optimisationde MARSALA sont proposés tels que le principe du ‘MaximumRatio Combining’, ou la transmissiondes paquets à des puissances différentes. Utilisées conjointement, ces différentespropositions permettent d’obtenir une amélioration très significative des performances. Enfin,nous montrons qu’en choisissant la configuration optimale pour MARSALA, le gain deperformance est considérablement amélioré
With the need to provide the Internet access to deprived areas and to cope with constantlyenlarging satellite networks, enhancing satellite communications becomes a crucial challenge.In this context, the use of Random Access (RA) techniques combined with dedicated accesson the satellite return link, can improve the system performance. However conventionalRA techniques like Aloha and Slotted Aloha suffer from a high packet loss rate caused bydestructive packet collisions. For this reason, those techniques are not well-suited for datatransmission in satellite communications. Therefore, researchers have been studying andproposing new RA techniques that can cope with packet collisions and decrease the packet lossratio. In particular, recent RA techniques involving information redundancy and successiveinterference cancellation, have shown some promising performance gains.With such methods that can function in high load regimes and resolve packets with high collisions,channel estimation is not an evident task. As a first contribution in this dissertation, wedescribe an improved channel estimation scheme for packets in collision in new RAmethodsin satellite communications. And we analyse the impact of residual channel estimation errorson the performance of interference cancellation. The results obtained show a performancedegradation compared to the perfect channel knowledge case, but provide a performanceenhancement compared to existing channel estimation algorithms. Another contribution of this thesis is presenting a method called Multi-Replica Decoding using Correlation based Localisation (MARSALA). MARSALA is a new decoding technique for a recent synchronous RAmethod called Contention Resolution Diversity Slotted Aloha (CRDSA). Based on packets replication and successive interference cancellation, CRDSA enables to significantly enhance the performance of legacy RA techniques. However, if CRDSA is unable to resolve additional packets due to high levels of collision, MARSALA is applied. At the receiver side, MARSALA takes advantage of correlation procedures to localise the replicas of a given packet, then combines the replicas in order to obtain a better Signal to Noise plus Interference Ratio. Nevertheless, the performance ofMARSALA is highly dependent on replicas synchronisation in timing and phase, otherwise replicas combination would not be constructive. In this dissertation, we describe an overall framework ofMARSALA including replicas timing and phase estimation and compensation, then channel estimation for theresulting signal. This dissertation also provides an analytical model for the performancedegradation of MARSALA due to imperfect replicas combination and channel estimation.In addition, several enhancement schemes forMARSALA are proposed likeMaximum RatioCombining, packets power unbalance, and various coding schemes. Finally, we show thatby choosing the optimal design configuration for MARSALA, the performance gain can besignificantly enhanced
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Charreteur, Claude. "Apports des méthodes et techniques de couplage à l'analyse des pesticides dans les eaux." Brest, 1997. http://www.theses.fr/1997BRES2021.

Повний текст джерела
Анотація:
La concentration maximale fixée par les pays de l'union européenne, pour tout pesticide présent dans les eaux destinées à la consommation humaine, est de 0,10 g/l. Pour atteindre ces limites, il faut pouvoir doser des teneurs 2 à 3 fois inferieures, ce qui implique de travailler en limite de sensibilité des méthodes conventionnelles de chromatographie. Dans un souci d'assurance de la qualité des résultats, nous avons évalué, dans un premier temps, les apports d'une technique dite, multi-méthodes, qui associe une méthode clhp multi-résidus à des méthodes cg plus spécifiques. Pour une molécule donnée, le recoupement des résultats enregistrés par les deux méthodes permet, avec un minimum d'incertitudes, de conclure à la présence d'un pesticide dans l'eau et d'en déterminer la teneur. Cette procédure a été validée pour cinq familles de pesticides : triazines, triazoles, phenoxyacides, phenyls urees, cyano et nitro phenols. Cette approche, dans l'ensemble tout à fait satisfaisante, ne peut, dans certains cas lever totalement les doutes qui subsistent en raison de la présence des produits interférents. C’est pourquoi, nous avons, dans un second temps, cherche à améliorer la sensibilité et la spécificité des méthodes cpg en évaluant les apports de nouvelles techniques de couplage à l'analyse des produits phytosanitaires. L’injection en grand volume donne la possibilité de réduire les volumes de solvants utilises lors des étapes d'extraction et d'abaisser de manière significative les seuils de détection. Ce couplage permet donc, selon le cas de simplifier la procédure d'analyse et/ou de travailler confortablement par rapport aux limites sanitaires. La détection de masse en tandem utilisant une trappe d'ions donne une garantie de spécificité totale au niveau des produits que l'on désire doser. Nous avons mis en œuvre ces techniques dans l'analyse des phenyls urees et des triazines ; l'utilisation de ces deux techniques a, également, permis d'élaborer une méthode d'analyse multi-résidus de ces deux familles de pesticides par cpg.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Brian, Éric. "Techniques d'estimations et méthodes factorielles : exposé formel et application aux traitements de données lexicométriques." Paris 11, 1986. http://www.theses.fr/1986PA112092.

Повний текст джерела
Анотація:
Cette thèse se décompose en deux temps, le premier est consacré à une justification probabiliste des résultats de la statistique descriptive, et notamment de l'analyse des correspondances, le second à une programmation de l'application de ces techniques, et principalement de l'agrégation, aux variables manipulées dans la léxicométrie. 1- L'application des techniques de validation par ré-échantillonnage aux méthodes de statistique descriptive (qu'on justifie généralement par des démonstrations algébriques) pose le problème de leur démonstration probabiliste. Considérer une carte factorielle comme une estimation impose une formalisation de l'échantillonnage plus complexe que d'habitude. Dans ce cadre, un certain nombre de résultats classiques sont redémontrés. 2- Dans la logique du système de programmes SPAD, des programmes d'agrégation utilisables avec des comptages d'occurrences (comme en lexicométrie) sont proposés. Leur conception pose des problèmes de choix de distance et d'algorithmes. Les textes FORTRAN sont donnés ainsi que plusieurs exemples illustrant la stabilité de la méthode retenue. Il est possible d'appliquer ces programmes au codage automatique des questions ouvertes d'enquêtes à partir de la saisie des « réponses brutes »
This dissertation is given in two steps: the first one is devoted to prove, within a probabilistic framework, the results obtained in descriptive statistics; the second one shows the programming the specific case of lexicometrical variables. 1- Applying validation technics - resampling for instance - to the methods used in descriptive statistics - generally proved with algebra - implies a probabilistic proof. A more complex formalization than usually is needed to consider a factorial analysis mapping as an estimation. Therefore, some classical results are given in this alternate framework. 2- Using SPAD standarts, specific cluster analysis programs are proposed, adapted to events countings - as used in lexicometry. These programs involve a discussion of the choice for a distance and the algorithms. The FORTRAN listings are proposed with some examples to show the stability of the selected methods. An application is the coding of free answers in surveys, using the transcriptions as an input
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Hossain, Mohammed A. "Studies on grafting in the Leguminosae using in vitro techniques." Thesis, University of Edinburgh, 1986. http://hdl.handle.net/1842/14105.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Gurav, Neelam. "Biocompatibility testing of resorbable materials using improved in-vitro techniques." Thesis, University College London (University of London), 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.286360.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Louerguioui, Ali. "Techniques de multiplication par clonage "in vitro" du genre eucalyptus." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37615472r.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Daudet, Laurent. "Représentations structurelles de signaux audiophoniques : méthodes hybrides pour des applications à la compression." Aix-Marseille 1, 2000. http://www.theses.fr/2000AIX11056.

Повний текст джерела
Анотація:
La recherche d'une bonne représentation numérique des sons musicaux est actuellement un enjeu important pour l'industrie musicale, notamment en vue du stockage et de la transmission. Nous désirons une représentation qui soit à la fois précise (fidèle d'un point de vue perceptif) et efficace (qui utilise la quantité de données la plus faible possible, en gardant une complexité faible). Nous envisagerons donc des modèles de sons d'autant plus précis que la classe de sons envisagée est étroite. Nous illustrons ici ce concept par deux exemples de modèles sonores. Le premier, basé sur des modèles de signaux, permet de représenter les sons de manière complètement générale, en les décomposant en trois couches dites partie tonale, transitoires et partie stochastique. Pour une grande majorité de sons, nous montrons que ces représentations hybrides sont particulièrement efficaces, les trois couches étant par construction compactes dans certaines bases. L'idée sous-jacente est la recherche de structures dans la localisation des coefficients significatifs. Outre l'application à la compression, ces représentations permettent une implémentation efficace de certains effets sonores et modèles psychoacoustiques. La seconde application permet, dans le cas où l'on ne se préoccupe que d'un seul instrument, d'appuyer nos modèles sur les mécaniques physiques de production sonore. Plus précisément, nous présentons un modèle de resynthèse des vibrations de cordes de piano, basé sur le formalisme des guides d'onde digitaux. Nous montrons qu'il est nécessaire d'envisager le couplage des vibrations dans les deux directions transverses, et que celui-ci peut être implémenté par un couplage linéaire et complexe, dépendant de la fréquence. Nous montrons que les paramètres du modèle peuvent être extraits de signaux expérimentaux. Ce type de modèles "physiques" permet un contrôle inatteignable par la majorité des synthétiseurs commerciaux.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Molino, Yves. "Mise en place de modèles in vitro de barrière hémato‐encéphalique et étude du transfert transendothélial de vecteurs et conjugués ciblant le récepteur au LDL." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5076/document.

Повний текст джерела
Анотація:
La barrière hémato-encéphalique (BHE) protège le système nerveux central (SNC) des fluctuations plasmatiques des molécules endogènes, mais aussi exogènes, et notamment des molécules à potentiel thérapeutique. L’imperméabilité de la BHE est compensée par la présence de mécanismes qui assurent le transport transendothélial des nutriments nécessaires au tissu nerveux, parmi lesquels la transcytose relayée par différents récepteurs. Dans le but d’améliorer le transfert d’agents thérapeutiques à travers la BHE, nous développons des « vecteurs » qui se lient à certains de ces récepteurs. Au cours de notre thèse, nous avons développé et optimisé des modèles in vitro de BHE et barrière sang-moelle épinière (BSME) syngéniques de rats et souris, basés sur la co-culture de cellules endothéliales microvasculaires (CEMs) cérébrales (CEMCs) ou spinales (CEMSs) et d'astrocytes. Parmi les récepteurs étudiés, nous montrons que le LDLR est exprimé à la membrane plasmique apicale des CEMCs et qu’il est impliqué dans la transcytose du LDL tout en évitant le compartiment lysosomal, confirmant l’intérêt de son ciblage dans nos approches. Nous montrons que nos vecteurs, conjugués à une molécule organique ou à un cargo protéique, sont endocytés par les CEMCs de façon LDLR-dépendante, évitent le compartiment lysosomal et franchissent la monocouche de CEMCs. Nous avons également mis en place des modèles in vitro de BHE et BSME enflammés, sachant que l’inflammation des CEMs est associée à de nombreuses pathologies du SNC. Ces modèles seront utiles pour évaluer des stratégies de vectorisation ciblant préférentiellement les structures du SNC en situation pathologique
The blood-brain barrier (BBB) protects the central nervous system (CNS) from plasma fluctuations of endogenous, but also exogenous molecules, including therapeutic molecules. The BBB’s restrictive properties are compensated by the presence of different mechanisms that provide transport of nutrients across the BBB, including transcytosis of endogenous ligands mediated by receptors. Our objective is to improve drug delivery across the BBB and we developed “vectors” that target different recpetors. During our thesis we developed and optimized cellular tools and approaches, in particular syngeneic in vitro models of the BBB and blood-spinal cord barrier (BSCB) from both rat and mouse, based on the co-culture of brain (BMECs) or spinal cord (SCMECs) microvascular endothelial cells (MECs) and astrocytes. Among the receptors we studied, we show that the LDL receptor (LDLR) is expressed at the apical plasma membrane of BMECs and confirmed that it is involved in transcytosis of LDL through the vesicular compartment, while avoiding the lysosomal compartment, further establishing its interest as a target receptor. We show that our vectors conjugated to an organic molecule or to a protein cargo are endocytosed by BMECs in a LDLR-dependent manner, avoid the lysosomal compartment and cross the BMEC monolayers. Finally, we developed BBB and BSCB in vitro models in inflammatory conditions, considering that MECs inflammation is associated with many CNS lesions and pathologies. These models will be useful to better understand the inflammatory processes of CNS endothelial cells and to evaluate vectorization strategies preferentially targeting CNS structures in pathological condition
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Larrouturou, Sylvie. "Activité in vitro de substances antirétrovirales contre le virus visna-maedi : évaluation de plusieurs méthodes." Limoges, 1993. http://www.theses.fr/1993LIMO302B.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Doré, Claire. "Intégration de la culture in vitro dans les méthodes de sélection de plusieurs espèces potagères." Paris 11, 1987. http://www.theses.fr/1987PA112402.

Повний текст джерела
Анотація:
Pour traduire les progrès de la biologie végétale sous forme d’innovations pratique pour l’amélioration de plusieurs espèces potagères, nous avons utilisé diverses méthodes de culture in vitro en les adaptant à chaque espèce, en recherchant leur niveau optimal d’intégration et leur intérêt réel dans la méthodologie de la sélection. Une première partie concerne différentes méthodes de production de génotypes d’élite : 1) L’haplodiploïdisation a été mise au point et pratiquée depuis la culture d'anthères in vitro jusqu'à l'évaluation agronomique. Chez l'Asperge, on obtient des plantes femelles et des plantes supermâles. Ces dernières permettent d'obtenir des hybrides F1 mâles dont l'intérêt est confirmé ici. Chez le Chou, l'originalité et la valeur des lignées haploïdes doublées ont pu être également démontrées. 2) La culture d'embryons immatures de Ph. Vulgaris x Ph. Angustissimus et leur traitement à la colchicine in vitro ont permis d’obtenir amphiploïde correspondant. De même, l'amphiploïde Allium cepa x A. Psekemense a été obtenu. 3) La culture de pétioles de Chou inoculée par Agrobacterium rhizogenes a permis de régénérer des plantes transformées ayant intégré un fragment de la région TL du plasmide Ri. Une deuxième partie concerne des méthodes de multiplication végétative pour des génotypes d'élite. La ré acquisition des potentialités juvéniles chez l'Asperge conduit à l'induction des griffes in vitro et le clonage des géniteurs a permis de diffuser un nouveau type de variété. Le retour de l'état préfloral à l'état végétatif est un préalable à la multiplication active chez des espèces où le prélèvement est tardif (Poireau et Laitue). L'entretien de l'activité des méristèmes axillaires latents du plateau basal des plantules d'Allium permet de réaliser des cycles successifs de multiplication. L'intérêt, le coût, les limites et les perspectives sont ensuite discutés pour chaque méthode. L'utilisation pratique des cultures in vitro est donc devenue une réalité dans les méthodes de sélection de plusieurs espèces potagères qui se traduit par des innovations variétales notamment
To express plant biology progresses into practical innovations for the improvement of several vegetable crops, we used different in vitro culture methods. Therefore, we adapted them to each species, looked for their best integration level and their real interest within breeding methodology. The first part is devoted to several methods to produce elite genotypes: 1) Haplodiploidization was found out and practiced from in vitro anther culture until agronomical evaluation. In Asparagus, female and supermale plants were achieved. Supermale plants allowed to obtain male F1 hybrids the interest of which was here confirmed. In Cabbage, originality and worth of doubled haploid lines could be also demonstrated. 2) Immature embryo culture of Ph. Vulgaris x Ph angustissimus and in vitro colchicine treatment allowed to achieve the corresponding amphiploid. Samely, amphiploid Allium cepa x A. Psekemense was obtained. 3) Cabbage petiole culture inoculated with Agrobacterium rhizogenes allowed to regenerate transformed plants, with a TL region of the Ri plasmid. The second part concerns vegetative multiplication method for elite genotypes. In Asparagus, reacquiring juvenile potentialities led to induce crowns in vitro, and genitor cloning made possible the release of a new type of variety. The return from prefloral state to vegetative state is a preliminary for active multiplication for species where picking is necessarily late (Leek and Lettuce)Maintaining the activity of latent axillary meristems located on basis of Allium plantlet bulbs allowed to achieve successive multiplication cycles. The interest, cast, limits and future prospects are then discussed for each method. So in vitro culture practical use has become a reality for several vegetable crop improvement, expressed especially by variety innovations
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Guigue, Vincent. "Méthodes à noyaux pour la représentation et la discrimination de signaux non-stationnaires." INSA de Rouen, 2005. http://www.theses.fr/2005ISAM0014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Bila, Stéphane. "Développement de méthodes d'optimisation électromagnétique automatiques. Applications aux dispositifs microondes." Limoges, 1999. http://www.theses.fr/1999LIMO0005.

Повний текст джерела
Анотація:
Les performances croissantes des moyens informatiques et les developpements recents des outils de conception assistes par ordinateur permettent aujourd'hui aux concepteurs de circuits microondes d'envisager la mise au point de methodes d'optimisation electromagnetique automatique. L'objectif majeur des methodes d'optimisation electromagnetique est de minimiser le nombre de calculs electromagnetiques necessaires a la conception du dispositif etudie. Le principe actuel consiste a integrer un simulateur electromagnetique global dans une boucle d'optimisation et de la diriger en appliquant : un algorithme d'optimisation pour les methodes d'optimisation electromagnetique directes, un autre simulateur ou un modele simplifie pour les methodes d'optimisation electromagnetique hybrides. Le travail de these presente dans ce manuscrit s'est porte sur le developpement de deux methodes d'optimisation electromagnetique, appliquees en particulier a la conception de filtres hyperfrequences a resonateurs dielectriques. La premiere methode developpee est une methode hybride, generale, qui combine une analyse electromagnetique globale du dispositif par la methode des elements finis et un modele analytique deduit de son analyse electromagnetique segmentee et approchee par un simulateur de reseaux de neurones. La methode d'optimisation hybride est decrite etape par etape puis validee par la conception de deux filtres a resonateurs dielectriques a modes duaux sans reglage experimental. La seconde methode developpee est une methode directe, specifique aux filtres et aux multiplexeurs hyperfrequences, qui combine une methode de synthese de filtres passe-bande, une analyse electromagnetique globale par la methode des elements finis et une methode d'identification de la matrice de couplage basee sur un logiciel d'approximation rationnelle. La methode d'optimisation directe est decrite etape par etape, puis appliquee a la conception d'un filtre elliptique 4 poles a resonateurs dielectriques a encoches, sans reglage experimental et fonctionnant sur des modes duaux. Enfin, les concepts d'optimisation electromagnetique presentes dans ce manuscrit, permettent donc d'envisager avec le developpement des moyens informatiques, la conception de dispositifs et de modules hyperfrequences de traitement du signal dans leur globalite.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Michetti, Jérôme. "Segmentation endodontique sur des images scanner 3D : méthodes et validation." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30186.

Повний текст джерела
Анотація:
Dans les cabinets dentaires, la dévitalisation des dents est un traitement réalisé quotidiennement (6 millions de traitement par an en France). Une bonne connaissance de l'anatomie canalaire (intérieur de la dent ou endodonte) est un pré requis indispensable au succès d'un traitement endodontique. Pour faire face aux nombreuses variations anatomiques qui viennent compliquer cette thérapeutique, les chirurgiens-dentistes ne disposent essentiellement que de la radiographie intra-buccale deux dimensions (2D) laquelle ne permet pas la complète compréhension de cette anatomie 3D. Distorsion, compression de l'anatomie et superposition des structures avoisinantes perturbent la qualité de l'image n'autorisant pas une évaluation qualitative et quantitative précise de cette anatomie. Les appareils de tomographie volumique à faisceau conique (TVFC) présents dans les cabinets dentaires pourraient constituer une alternative en fournissant de petites reconstructions 3D de structures dento-maxillofaciales. Mais l'évaluation de la précision diagnostique des TVFC dentaires sur l'anatomie canalaire est nécessaire afin de pouvoir justifier leur indication pour les traitements endodontiques. En effet, le développement d'une méthode de segmentation endodontique sur des images de TVFC n'est pas aisée du fait de la finesse de cette anatomie canalaire par rapport à la résolution du système d'imagerie, de la qualité d'image et de la difficulté à valider les résultats obtenus. Afin d'aider la thérapeutique endodontique, les travaux réalisés dans cette thèse ont pour but de fournir des outils informatiques et des méthodes utiles à l'obtention d'une évaluation quantitative du réseau canalaire radiculaire. Après une présentation de l'anatomie endodontique et des principes du traitement canalaire, nous avons décrits les caractéristiques techniques des appareils de tomographie volumique à faisceau conique et les outils existants pour évaluer de manière quantitative cette anatomie sur des images issues de micro-scanners haute-résolution dédiés à la recherche. Nous avons ensuite proposé une méthode pour évaluer les résultats de segmentation endodontique en TVFC par comparaison avec les données micro-scanners. Afin de valider cette méthode et d'évaluer la faisabilité de segmenter l'endodonte en TVFC, nous avons testé un seuillage local adaptatif développé pour répondre à notre problématique sur des dents extraites. Pour permettre la validation des résultats de segmentation sur des images de qualité clinique (dégradée par les structures anatomiques autour des dents dans et hors champ de vue), nous avons élaboré et validé un fantôme parodontal réalisé autour de dents extraites et permettant de préserver la comparaison avec la vérité terrain fournie par les micro-scanners. En fin de thèse, nous avons évoqué les perspectives basées sur l'apprentissage profond et les premières études réalisées pour compenser la réduction de la qualité d'image afin de pouvoir tester et valider la segmentation endodontique en condition clinique
In dental offices, endodontic or root canal treatments are daily performed (over 6 million treatments per year in France). A good knowledge of the root canal anatomy (inside of the tooth or pulp) is an indispensable prerequisite for ensuring the success of root canal treatment. To understand and overpass common morphological variations which are potential source of failures during the treatment, two-dimensional (2D) intra buccal radiography can help dental surgeons. However, distortion, anatomical compression and neighboring anatomical structures superposition reduce image quality and do not allow an accurate qualitative and quantitative evaluation of the root canal anatomy. Cone-beam computed tomography (CBCT) available in dental offices might be an alternative by providing 3D reconstructions of dento-maxillofacial structures. But the evaluation of the diagnostic accuracy of dental CBCT devices in identifying root canal anatomy is necessary to justify their indication in endodontic treatment. Indeed, root canal segmentation on (CBCT) images is difficult because of the noise level, resolution limitations, and to the difficulty to validate results. To help dental surgeons in root canal treatment, this thesis aims at providing image processing methods in order to develop segmentation and visualization methods of the inside of the teeth. To begin with, we have introduced the root canal morphology, the different rules of the root canal treatment and described technical specifications of CBCT devices. We also investigated existing techniques and methods to explore quantitatively root canal anatomy on high resolution microcomputed tomography (µCT) images. Afterwards, we proposed a method to evaluate CBCT endodontic segmentation results by comparing with equivalent µCT data. To validate this method and to test endodontic segmentation on CBCT images, we developed a local adaptive thresholding and evaluated results on extracted teeth. To ensure validation on image quality similar to in vivo condition (quality reduced by anatomical structures in and out of the field of view), we designed and validated a periodontal phantom which are made around extracted teeth and allowing to preserve comparison with the ground truth providing by the µCT. At the end of the thesis, we evocated our perspectives based on deep learning and our first results to compensate image quality reduction in order to test endodontic segmentation in clinical condition
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Yildirim, Evrim. "Development Of In Vitro Micropropagation Techniques For Saffron (crocus Sativus L.)." Master's thesis, METU, 2007. http://etd.lib.metu.edu.tr/upload/12608730/index.pdf.

Повний текст джерела
Анотація:
In vitro micropropagation of saffron (Crocus sativus L.) by using direct and indirect organogenesis was the aim of this study. Also, the effect of plant growth regulators on growth parameters, such as corm production, sprouting time and germination ratio were investigated in ex vitro conditions. For in vitro regeneration of saffron, the effects of 2,4-D (2,4-dichlorophenoxyacetic acid) and BAP (6-benzylaminopurine) were tested initially. It was observed that 0,25 mg/L 2,4-D and 1 mg/L BAP combination was superior for indirect organogenesis while 1 mg/L 2,4-D and 1 mg/L BAP combination was favorable for direct organogenesis. During the improvement of direct organogenesis experiments, BAP (1 mg/L) without 2,4-D stimulated further shoot development. For adventitious corm and root induction, NAA (naphthaleneacetic acid) and BAP combinations were tested. Although a few corm formations were achieved, root development was not observed with these treatments. Further experiments with the culture medium supplemented with 1 mg/L IBA (indole-3-butyric acid) and 5% sucrose was effective on obtaining contractile root formation and increasing corm number. As a result, the overall efficiency was calculated as 59.26% for contractile root formation, 35.19% for corm formation and 100% for shoot development. In ex vitro studies, 50 mg/L IAA (indole-3-acetic acid) , 50 mg/L kinetin and 200 mg/L GA3 (gibberellic acid) were used. These applications were not as efficient as expected on assessed growth parameters.
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Riccalton-Banks, Lisa Anne. "Maintenance of primary rat hepatocytes in vitro using co culture techniques." Thesis, University of Nottingham, 2002. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.273105.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Bozorgipour, Reza. "The use of in vitro techniques for crop improvement in cereals." Thesis, University of Cambridge, 1991. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.333244.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Van, der Merwe Carel. "In vitro evaluation of root canals obturated with four different techniques." Diss., Pretoria : [s.n.], 2009. http://upetd.up.ac.za/thesis/available/etd-01252010-105530/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії