Thèses sur le sujet « Correction de la diffusion cellulaire »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Correction de la diffusion cellulaire.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Correction de la diffusion cellulaire ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Yang, Ning. « Online monitoring of bioreactors by Raman spectroscopy and machine learning ». Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST083.

Texte intégral
Résumé :
Cette thèse présente une nouvelle stratégie de modélisation pour le suivi en ligne des bioréacteurs, utilisant la spectroscopie Raman et Machine Learning. L'objectif principal de cette étude est de développer des modèles simplifiés utilisant des spectres Raman provenant d'étalons. Elle se compose de trois parties.La première partie de cette thèse consiste à optimiser les paramètres d'acquisition Raman et à élaborer un modèle de régression PLS en utilisant des étalons purs. Ensuite, une validation préliminaire est entreprise en employant des étalons mixtes afin de simuler les variations de composition moléculaire dans le milieu, au cours du procédé, la fermentation alcoolique. La deuxième partie propose une expression non linéaire pour interpréter l'atténuation Raman due à la présence de micro-organismes dans un bioréacteur réel, permettant ainsi la correction des spectres diffusés par les cellules. Pour évaluer la performance du modèle, des bioréacteurs batch et fed-batch ont été réalisés, afin de confirmer la fiabilité et la robustesse prédictive de la stratégie de correction et du modèle de régression élaborés. Enfin, la troisième partie met en lumière les avantages de la méthodologie de modélisation proposée, comparativement à l'approche traditionnelle utilisant les spectres des bioréacteurs pour l'entraînement du modèle de régression.Dans l'ensemble, cette approche innovante a démontré une excellente performance de prédiction sur tous les ensembles de données de validation et de test, présentant un potentiel significatif pour l'ingénierie des bioprocédés. Elle permet un suivi plus précis et plus efficace de plusieurs composés en temps réel, et améliore le contrôle et l'optimisation des processus. La stratégie proposée devrait avoir une application étendue dans l'industrie de la bioproduction
This thesis presents a novel and reproducible modeling strategy for online monitoring of bioreactors using Raman spectroscopy and Machine Learning. The main aim of this study is to develop simplified models using the Raman spectra of standards in solution. It consists of three key parts.The first part involves optimizing Raman acquisition parameters and developing a PLS regression model using pure standards. Subsequently, a preliminary validation was carried out using mixed standards to mimic changes in the composition of different molecules in the medium during the alcoholic fermentation process. The second part defined a nonlinear expression to interpret the Raman attenuation induced by the presence of microorganisms in a real bioreactor, allowing the correction of cell--scattered spectra. For model evaluation, numerous batches and one fed--batch bioreactor were launched to validate the working performance and predictive robustness of the obtained correction strategy and regression model. The third part highlights the advantages of our proposed modeling methodology over the traditional way that uses the spectra from bioreactors to train the regression model.Overall, the innovative approach demonstrated an excellent prediction performance on all validation and testing datasets, presenting significant potential for bioprocess engineering. It enables more accurate and efficient monitoring of multiple compounds in real time, as well as enhances process control and optimization. The proposed strategy is expected to have an extended application in the bioproduction industry
Styles APA, Harvard, Vancouver, ISO, etc.
2

Buvat, Irène. « Correction de la diffusion en imagerie scintigraphique ». Paris 11, 1992. http://www.theses.fr/1992PA112310.

Texte intégral
Résumé :
En imagerie scintigraphique, la detection de rayonnement diffuse est l'une des principales causes de la deterioration de la qualite des images, en terme de resolution spatiale, de contraste et d'interpretation quantitative. La technique classique d'acquisition dans une fenetre en energie, bien qu'elle amoindrisse les effets du rayonnement diffuse, reste peu satisfaisante. Parmi les nombreuses methodes de correction qui ont ete proposees, aucune solution reellement adaptee ne s'est imposee. La methode de correction de la diffusion que nous developpons repose sur l'analyse factorielle des sequences d'images medicales (afsim). L'afsim permet de resoudre un modele de superposition lineaire pose sur un ensemble de donnees (ici les spectres locaux des photons detectes durant l'acquisition), et conduit a l'estimation de fonctions fondamentales sous-jacentes (ici un spectre de photons non diffuses et des spectres de photons diffuses) et des distributions spatiales associees (l'image des photons non diffuses et celles des photons diffuses). La methode classique d'afsim, ainsi que les variantes auxquelles elle a donne lieu, ne permettent pas d'obtenir la decomposition spectrale recherchee. Ses differentes etapes sont donc modifiees pour introduire des connaissances a priori relatives aux proprietes statistiques des donnees traitees et aux proprietes physiques des solutions recherchees. Nous montrons que les performances de la methode ainsi remaniee et sa fiabilite sont accrues. Elle s'avere alors un outil adapte a la correction de la diffusion des differents examens scintigraphiques: planaires et tomographiques, mono et multi-isotopiques, statiques et dynamiques. La correction de la diffusion est evaluee au moyen de simulations numeriques, de simulations de monte carlo, d'acquisitions sur fantomes et d'acquisitions cliniques. La correction s'adapte a chaque ensemble de donnees, donc a chaque patient et aux caracteristiques du detecteur, et est applicable quels que soient les radioelements utilises. Elle permet d'ameliorer la quantification en imagerie scintigraphique
Styles APA, Harvard, Vancouver, ISO, etc.
3

Stinson, Eric. « Distortion correction for diffusion weighted magnetic resonance images ». Thesis, McGill University, 2009. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=32587.

Texte intégral
Résumé :
Diffusion magnetic resonance imaging (MRI) is useful for studying the diseased, dysfunctional, and healthy human brain. Unfortunately, this technique is susceptible to geometric distortions that decrease the accuracy and value of the data. A distortion correction algorithm must be used to remedy these issues during post-processing. The purpose of this thesis is to develop, implement, and test a distortion correction method for diffusion weighted MRI. A distortion correction algorithm was designed and implemented and then tested on simulated and real human brain datasets. The algorithm was found to work well for simulated datasets with b-values up to and including b=2000 s/(mm*mm). Furthermore, the cause of distortion correction failures were investigated. Failures are believed to be due to a combination of reduced signal to noise ratio (SNR) and increased contrast differences in datasets with higher b-values.
L'imagerie par résonance magnétique (IRM) de diffusion est utile dans l'étude du cerveau humain, tant en santé que dysfonctionnel ou atteint de maladie. Malheureusement, cette technique est susceptible à des distortions géometriques qui diminuent la précision et la valeur des données. Un algorithme de correction de ces distortions doit être utilisé pendant le traitement des données. Le but de ce mémoire est de développer, d'implementer et de tester une méthode de correction des distortions pour l'IRM de diffusion. Un algorithme de correction des distortions fut developé et implémenté, puis évalué sur des ensembles de données cérébrales humaines simulées et réelles. L'algorithme fonctionne bien pour des données simulées avec des valeurs b jusqu'à b=2000 s/(mm*mm). La cause des échecs de la correction de distortion fut également étudiée. Les échecs sont attribués à une combinaison de la réduction du rapport signal sur bruit (SNR, pour signal-to-noise ratio) et de l'augmentation des différences de contraste, dans les ensembles de données avec des valeurs-b plus élevées.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Schnell, Sondre Kvalvåg, Thijs J. H. Vlugt, Jean-Marc Simon, Signe Kjelstrup et Dick Bedeaux. « Direct calculation of the thermodynamic correction factor, gamma, from molecular dynamics simulations ». Universitätsbibliothek Leipzig, 2015. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-185607.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Schnell, Sondre Kvalvåg, Thijs J. H. Vlugt, Jean-Marc Simon, Signe Kjelstrup et Dick Bedeaux. « Direct calculation of the thermodynamic correction factor, gamma, from molecular dynamics simulations ». Diffusion fundamentals 16 (2011) 72, S. 1-2, 2011. https://ul.qucosa.de/id/qucosa%3A13814.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Iyombe, Jean-Paul. « Correction du gène de la dystrophine avec les nucléases à doigts de zinc ». Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30298/30298.pdf.

Texte intégral
Résumé :
La thérapie génique sans transfert de gène utilisant les endonucléases de restriction spécifiques est une des approches thérapeutiques qui visent à la mise au point d’un traitement curatif de la dystrophie musculaire de Duchenne (DMD). Afin de corriger le gène de la dystrophine avec les nucléases à doigt de zinc (ZFNs) en ciblant l’exon 50, nous avons produit les protéines ZFNs dans les bactéries et les avons purifiées. Les résultats obtenus après les essais in vitro montrent que les ZFNs produites reconnaissent d’une manière spécifique la séquence cible située au niveau de l’exon 50 du gène DYS et peuvent y générer d’une manière précise les coupures double-brin. Ils montrent également que les protéines ZFNs produites peuvent être transfectées, avec ou sans agent de transfection, dans les myoblastes des patients dystrophiques Duchenne en culture.
Gene therapy without gene transfer using specific restriction endonucleases is a therapeutic approaches aimed at the development of a cure for Duchenne muscular dystrophy (DMD). To correct the dystrophin gene with zinc finger nucleases (ZFNs) targeting exon 50of DYS gene, we produced ZFNs proteins in bacteria and purified them. The results obtained after in vitro assays show that ZFNs produced specifically recognize a target sequence located in exon 50 of the gene DYS and can be generated in a precise manner the double strand breaks. They also show that ZFNs produced proteins can be transduced with or without agent transduction, in cultured myoblasts of patients’ Duchenne dystrophy.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Suissa, Michaël Freyssingeas Eric Place Christophe. « Dynamique interne du noyau d'une cellule vivante étude par diffusion dynamique de la lumière / ». [S.l.] : [s.n.], 2006. http://tel.archives-ouvertes.fr/tel-00091487.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Jia, Jieshuang. « Study of molecules with nonsense mutation correction capacity ». Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S009/document.

Texte intégral
Résumé :
Les mutations non-sens représentent environ 10% des mutations trouvées dans les maladiesgénétiques héréditaires. Les ARNm portant une mutation non-sens sont dégradés par un mécanismeappelé nonsense-mediated mRNA decay (NMD) pour empêcher la synthèse de protéines tronquéesqui pourraient être toxiques ou non-fonctionnelles pour la cellule. Plusieurs stratégies ont étédéveloppées pour sauver une mutation non-sens. Dans notre laboratoire, nous étudions deux d'entreelles qui sont (i) l'inhibition du NMD et (ii) l'activation de la translecture du PTC qui est un mécanismeconduisant à l'incorporation d'un acide aminé à la position du PTC. Pour trouver de nouveauxmoyens thérapeutiques pour les maladies génétiques héréditaires, notre laboratoire a testédifférentes molécules par criblage, pour identifier celles qui ont la capacité d'inhiber le NMD. Chaquemolécule sélectionnée par le crible est étudiée afin de mesurer son efficacité d'inhibition du NMD etd'activation de la translecture. Nous avons ainsi montré que i'amlexanox non seulement inhibe NMDmais active également la translecture du PTC. Cependant, l'efficacité de I'amlexanox reste modeste.Nous avons donc recherché d'autres familles de molécules qui sont capables de sauver une mutationnon-sens et qui ont une efficacité de correction des mutations non sens meilleure ou démontrentune plus grande spécificité. Dans mon étude, j'ai trouvé deux familles de protéines particulières quesont les inducteurs d'apoptose et les inhibiteurs du cytosquelette. J'ai trouvé que les inducteursd'apoptose peuvent inhiber le NMD en activant les caspases qui clivent les facteurs du NMD (UPF1 etUPF2). J'ai aussi montré que les inhibiteurs du cytosquelette peuvent inhiber le NMD et que certainsd'entre eux peuvent activer la translecture de PTC en induisant les facteurs du NMD (UPF1 et / ouUPF3X) à se concentrer dans les P-bodies et/ou dans d'autres foyers cytoplasmiques. Les rendementsde ces molécules sur l'inhibition du NMD sont similaires ou meilleure que I'amlexanox. Les inducteursd'apoptose et les inhibiteurs du cytosquelette nous démontrent qu'il est possible de trouver desmolécules très différentes capables de corriger des mutations non sens avec une bonne efficacité
Nonsense mutations represent approximately 10% of mutations found in the inherited geneticdiseases. mRNAs harboring a nonsense mutation are rapidly degraded by a quality-controlmechanism called nonsense-mediated mRNA decay (NMD) to prevent the synthesis of toxic or nonfunctionaltruncated proteins. Some stratégies have been developed to correct nonsense mutations.In our lab, we study 2 of them which are (i) the NMD inhibition and (ii) the PTC-readthroughactivation which is a mechanism leading to the incorporation of an amino-acid at the PTC position. Todesign new therapeutic tools for the inherited genetic diseases, our lab tested molecules byscreening to find ones with the capacity of NMD inhibition. For each molecules selected in thescreen, we measure the efficiency of NMD inhibition and PTC-readthrough activation of thesemolecules in cell lines harboring a nonsense mutation. We have shown that amlexanox not onlyinhibits NMD but also activâtes PTC readthrough. But the efficacy of amlexanox is still low. Wewanted to find other families of molecules capable of rescuing the expression of nonsense mutationcontainingmRNA with a higher efficacy or with some specificity. In my study, I found two spécialfamilies, one is the family of apoptosis inducers and the other is the family of cytoskeleton inhibitors.I found that apoptosis inducers can inhibit NMD by activating caspase pathway and cleave NMDfactors (UPF1 and UPF2). I also found that cytoskeleton inhibitors can inhibit NMD and some of themcan activate PTC-readthrough by inducing NMD factors (UPF1 or/and UPF3X) to concentrate in Pbodiesor in other cytoplasmic foci. The efficiencies of these molecules on NMD inhibition are similaror higher than amlexanox. Apoptosis inducers and cytoskeleton inhibitors demonstrated thatmolecules which can inhibit NMD or/and activate PTC-readthrough can be found and candemonstrate a higher correction of nonsense mutation efficiency than the existing molecules(ataluren or amlexanox for example)
Styles APA, Harvard, Vancouver, ISO, etc.
9

Valon, Léo. « Contrôle Optogénétique de la Polarité Cellulaire ». Thesis, Paris, Ecole normale supérieure, 2014. http://www.theses.fr/2014ENSU0008/document.

Texte intégral
Résumé :
Dans cette thèse, nous avons concentré notre étude sur les mécanismes qui génèrent la polarité cellulaire, en particulier dans le cas de la migration cellulaire. Malgré les derniers développements concernant l’observation de l’activité des RhoGTPases, les principes qui dictent la capacité des cellules à coordonner plusieurs modules de signalisation en parallèle ne sont toujours pas compris. L’optogénétique est un outil d’intérêt pour disséquer ces réseaux de signalisation à partir de la création d’une perturbation dont les caractéristiques spatiotemporelles sont contrôlées. Tout d’abord, à partir de la caractérisation des différents processus biophysiques en jeu, nous avons établi les relations quantitatives entre l’illumination et les gradients moléculaires que l’on induit. Nous avons déterminé qu’il est possible de créer des gradients subcellulaires avec une résolution spatiale de l’ordre de 5 μm et temporelle d’environ 3 minutes Ensuite, nous avons utilisé cette approche optogénétique pour contrôler l’activité de Cdc42, Rac1 et RhoA. Nous avons caractérisé les effets subcellulaires de l’activation de ces RhoGTPases en utilisant l’activité de membrane, les changements de forme cellulaire et leurs déplacements comme rapporteurs de la polarisation et de la migration. Nous avons ainsi montré qu’une activation locale de RhoGTPase permet la réorganisation interne des cellules jusqu’à générer un phénotype de migration.Enfin, nous avons caractérisé les effets d’une activation locale de RhoA sur différents acteurs moléculaires comme les points focaux d’adhésion, l’actine et les moteurs moléculaires myosines. Nous avons mesuré alors la dynamique de l’intégration des points focaux dans le cytosquelette et analysé la réponse du réseau d’acto-myosine au cours d’évènements de rétraction.Notre approche optogénétique couple le contrôle d’une perturbation à la mesure de la réponse cellulaire simultanément de manière directe et reproductible. Elle apporte une méthode pour contrôler la polarité cellulaire et une manière de disséquer des réseaux de signalisation à l’échelle subcellulaire
In this thesis we focus on the mechanisms that establish cell polarization, particularly during cell migration. Despite latest developments that enable visualization of RhoGTPases activity, the underlying principles dictating the cell’s ability to coordinates multiple signaling modules is still unclear. Optogenetic methods have been recognized as promising tools to dissect these intracellular signaling networks by allowing perturbations to be spatially and temporally controlled. We established the quantitative relationship between illumination patterns and the corresponding gradients of induced signaling activity through the characterization of the biophysical properties of CRY2/CIBN. We determined that it is possible to create subcellular gradients of recruited proteins of different shapes of choice up to spatial resolutions of 5μm and temporal ones of ca. 3 minutes.We applied the aforementioned optogenetic approach as a means to perturb the activity of cdc42, Rac1 and RhoA. We characterized the effects of subcellular activation of those RhoGTPases using membrane activity, cell shape changes and cell displacement as reporters of cell polarization and migration. We show that localized activation of RhoGTPases can trigger cellular organization and drive the cell into a migrating state.We also characterized the effects of local activation of RhoA on different cellular effectors as focal adhesion complexes, actin filaments and myosin molecular motors. We measured the dynamics of the newly formed focal adhesion complexes and the acto-myosin complex during retraction events.Altogether, our optogenetic methodology enables simultaneous measurement of the imposed perturbation and the cell response in a straightforward and reproducible way. It provides a quantitative way to control cell polarity and a step forward in the dissection of subcellular signaling networks
Styles APA, Harvard, Vancouver, ISO, etc.
10

RICA, CHARLES. « Correction de la diffusion compton en scintigraphie a l'aide de reseaux neuro-mimetiques ». Paris 7, 1996. http://www.theses.fr/1996PA077272.

Texte intégral
Résumé :
Nous presentons une nouvelle methode de correction du diffuse compton en scintigraphie. Cette methode utilise la technologie des reseaux neuro-mimetiques (rnm). Les spectres d'energie de chaque pixel et de son entourage sont utilises comme valeurs d'entrees du reseau. On recueille en sortie la fraction non-diffusee estimee du pixel. La phase d'apprentissage est effectuee a partir d'images provenant d'une simulation de monte-carlo. Le reseau ainsi entraine est ensuite applique lors de la phase de restitution a une simulation scintigraphique differente mais aussi sur fantomes reels. Plusieurs architectures sont experimentees. Dans la plus simple, les donnees d'entree sont reduites au seul pixel examine. Les autres modeles utilisent en plus des informations tirees de son voisinage. La methode a ete evaluee a la fois sur acquisition reelle et simulee et ses resultats compares a ceux obtenus par d'autres methodes courantes montrent que l'utilisation des rnm est une voie prometteuse pour la correction de diffuse compton en scintigraphie
Styles APA, Harvard, Vancouver, ISO, etc.
11

Mas, Jacky. « Amélioration de la résolution et correction de la diffusion Compton en imagerie isotopique ». Besançon, 1989. http://www.theses.fr/1989BESA2047.

Texte intégral
Résumé :
Après avoir détaillé les principes généraux de la formation des images isotopiques et précisé les phénomènes qui les dégradent, l’auteur aborde au cours de la première partie le problème de la mauvaise résolution spatiale et de la variation de la fonction de dispersion ponctuelle avec la distance source-détecteur. Plusieurs méthodes de filtrage linéaire sont étudiées, en particulier la déconvolution sous contraintes de Hunt, le filtre de Metz et une version originale itérative du filtre de Wiener. Lorsque la réponse impulsionnelle du détecteur possède certaines caractéristiques, la restauration par la phase des signaux est envisageable. L’auteur montre sur des images non-bruitées les bons résultats obtenus avec deux algorithmes itératifs qui n’ont jamais encore été utilisés en médecin nucléaire. Dans le cas d’images bruitées, l’utilisation de cette dernière méthode nécessite un traitement préalable du bruit. Pour cela, le recours à la méthode de décomposition en valeurs singulières est proposé. Les résultats préliminaires obtenus sur des modèles mathématiques où l’on prend en compte la résolution spatiale et le bruit statistique sont satisfaisants. Cependant, sur des images réelles un phénomène supplémentaire apparaît : la diffusion Compton. La seconde partie de la thèse est consacrée à l’étude de cette dégradation. Une revue de la littérature a permis de conclure que seules les méthodes de recombinaison peuvent éliminer de manière adaptée les photons diffusés. Le choix s’est porté sur un algorithme d’Analyse Factorielle Oblique initialement proposé par Di Paola et mis en œuvre par Morvan sur des cystographies isotopiques. Hannequin a émis une hypothèse originale sur la forme du facteur pic photoélectrique. C’est cette Analyse Factorielle des Structures Dynamiques (AFSD) sous contraintes qui est utilisée ici. Cette méthode de recombinaison a été validée sur des modèles simulés par la procédure de Monte-Carlo et sur des fantômes réels. Les résultats obtenus par la recombinaison sous contraintes ont été comparés à ceux obtenus par la méthode de Jaszczak, et démontrent la supériorité de la nouvelle approche. En tomographie d’émission à simple photon l’effet Compton se comporte comme un bruit additif qui se combine avec le phénomène d’atténuation pour rendre impossible une quantification précise des paramètres d’intérêt clinique sur les coupes. Des simulations tomographiques et des fantômes réels ont été corrigés par l’AFSD sous contraintes et par la méthode de Jaszczak, montrant d’une part les meilleurs performances de la recombinaison et d’autre part la nécessité de cette correction de la diffusion avant toute compensation de l’atténuation. Cette dernière a été réalisée à l’aide de l’algorithme de Chang modifié.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Alhamud, Alkathafi Ali. « Implementation of anatomical navigators for real time motion correction in diffusion tensor imaging ». Doctoral thesis, University of Cape Town, 2012. http://hdl.handle.net/11427/10052.

Texte intégral
Résumé :
Includes bibliographical references.
Prospective motion correction methods using an optical system, diffusion-weighted prospective acquisition correction, or a free induction decay navigator have recently been applied to correct for motion in diffusion tensor imaging. These methods have some limitations and drawbacks. This article describes a novel technique using a three-dimensional-echo planar imaging navigator, of which the contrast is independent of the b-value, to perform prospective motion correction in diffusion weighted images, without having to reacquire volumes during which motion occurred, unless motion exceeded some preset thresholds. Water phantom and human brain data were acquired using the standard and navigated diffusion sequences, and the mean and whole brain histogram of the fractional anisotropy and mean diffusivity were analyzed.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Leguebe, Michael. « Modélisation de l'électroperméabilisation à l'échelle cellulaire ». Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0169/document.

Texte intégral
Résumé :
La perméabilisation des cellules à l’aide d’impulsions électriques intenses, appelée électroperméabilisation, est un phénomène biologique impliqué dans des thérapies anticancéreuses récentes. Elle permet, par exemple, d’améliorer l’efficacité d’une chimiothérapie en diminuant les effets secondaires, d’effectuer des transferts de gènes, ou encore de procéder à l’ablation de tumeurs. Les mécanismes de l’électroperméabilisation restent cependant encore méconnus, et l’hypothèse majoritairement admise par la communauté de formation de pores à la surface des membranes cellulaires est en contradiction avec certains résultats expérimentaux.Le travail de modélisation proposé dans cette thèse est basé sur une approche différente des modèles d’électroporation existants. Au lieu de proposer des lois sur les propriétés des membranes à partir d’hypothèses à l’échelle moléculaire, nous établissons des lois ad hoc pour les décrire, en se basant uniquement sur les informations expérimentales disponibles. Aussi, afin de rester au plus prèsde ces dernières et faciliter la phase de calibration à venir, nous avons ajouté un modèle de transport et de diffusion de molécules dans la cellule. Une autre spécificité de notre modèle est que nous faisons la distinction entre l’état conducteur et l’état perméable des membranes.Des méthodes numériques spécifiques ainsi qu’un code en 3D et parallèle en C++ ont été écrits et validés pour résoudre les équations aux dérivées partielles de ces différents modèles. Nous validons le travail de modélisation en montrant que les simulations reproduisent qualitativement les comportements observés in vitro
Cell permeabilization by intense electric pulses, called electropermeabilization, is a biological phenomenon involved in recent anticancer therapies. It allows, for example, to increase the efficacy of chemotherapies still reducing their side effects, to improve gene transfer, or to proceed tumor ablation. However, mechanisms of electropermeabilization are not clearly explained yet, and the mostly adopted hypothesis of the formation of pores at the membrane surface is in contradiction with several experimental results.This thesis modeling work is based on a different approach than existing electroporation models. Instead of deriving equations on membranes properties from hypothesis at the molecular scale, we prefer to write ad hoc laws to describe them, based on available experimental data only. Moreover, to be as close as possible to these data, and to ease the forthcoming work of parameter calibration, we added to our model equations of transport and diffusion of molecules in the cell. Another important feature of our model is that we differentiate the conductive state of membranes from their permeable state.Numerical methods, as well as a 3D parallel C++ code were written and validated in order to solve the partial differential equations of our models. The modeling work was validated by showing qualitative match between our simulations and the behaviours that are observed in vitro
Styles APA, Harvard, Vancouver, ISO, etc.
14

Malherbe, Godefroy. « Modélisation de la diffusion dans le noyau et application à l'activation cellulaire ». Paris 6, 2010. http://www.theses.fr/2010PA066481.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
15

Dumeur, Axel. « Planification d'un réseau de diffusion pour des services convergents avec le cellulaire ». Paris, ENST, 2004. http://www.theses.fr/2004ENST0047.

Texte intégral
Résumé :
La télévision numérique terrestre (DVB-T ou DVB-H) permet de nouveaux types d'usages : en réception portable ou mobile ce qui rapproche son ingénierie de planification de celle du cellulaire. La première partie des contributions de cette thèse s'intéresse au déploiement des réseaux de diffusion. Un but est d'avoir une couverture similaire au GSM. En plus du classique MFN, on considère les SFN (Single Frequency Network) et MFN par plaques SFN. Une étude est menée sur les réseaux SFN reposant sur l'analyse statistique du rapport signal sur interférence. Les résultats permettent de déterminer des distances inter-sites possibles. Une démarche est ensuite développée pour le déploiement de réseaux MFN par plaques SFN. La deuxième partie s'intéresse à la gestion conjointe de la ressource spectrale dans le cadre du déploiement coordonné d'un réseau de diffusion et d'un réseau cellulaire utilisant une même bande de fréquences. Deux points sont abordés : une réutilisation géographique du spectre et une réutilisation temporelle et dynamique. La première étude porte sur la réutilisation des fréquences allouées à la diffusion numérique par un système ayant une interface radio de type UMTS. Les résultats montrent une capacité relative UMTS (lien descendant) notablement dégradé par rapport à un réseau UMTS seul. Un compromis entre la qualité de chaque réseau et le coût d’un tel déploiement est donc à trouver. Les travaux menés sur la réutilisation temporelle et dynamique du spectre porte sur l'approche Dynamic Spectrum Allocation développée dans le projet DRIVE. Une modélisation analytique à base de file d'attente est proposée ; elle utilise des processus MAP
Digital Television, which corresponds to DVB-T and DVB-H, enables new uses: in indoor and mobile reception and the engineering get closer to the cellular one. The first part of the work carried out deals with the deployment of digital broadcast network for mobile and indoor reception. One goal is to have a total coverage close to GSM. In addition to the classic MFN (Multi Frequency Network), one can consider SFN (Single Frequency Network) and mix MFN/SFN. A study is carried out on SFN network that relies on a statistical analysis of signal over interference ratio. The results enable the determination of possible inter-site distances. An approach is then developped for mix MFN/SFN networks. The second part deals with the joint management of the spectral ressource in the case of a coordinated deployment of a braodcast and a cellular network that use the same frequency band. Two points are discussed: a geographical reused of the spectrum and a temporal one. Concerning the geographical reuse, the reuse of frequency bands dedicated to digital broadcasting by system using UMTS air interface type is studied. The results show a notably degraded relative UMTS (downlink) capacity compared to a single UMTS network. A trade off between the quality of each network and the cost of such deployment has to be found. Concerning the dynamic and temporal reuse, the works carried out is related to the DSA (Dynamic Spectrum Allocation) approaches, developped in the European project DRIVE. An analytical model based on queueing theory is proposed; it uses MAP process
Styles APA, Harvard, Vancouver, ISO, etc.
16

Beauvier, Edouard. « Propagation d'un front de réaction-diffusion dans un écoulement cellulaire multi-échelle ». Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4728/document.

Texte intégral
Résumé :
La propagation d'un front de réaction-diffusion est étudiée expérimentalement dans un écoulement cellulaire multiéchelle. Le front est produit par réaction autocatalytique en solution. L'écoulement est réalisé en géométrie de Hele-Shaw par électroconvection, son caractère multiéchelle étant réalisé par l'action combinée de deux nappes d'aimants d'échelles différentes. La géométrie du front et sa vitesse moyenne de propagation sont déterminées pour une large gamme d'intensité des vortex de chaque échelle. Elles sont confortées par une simulation numérique de l'avancée du domaine brulé dans le domaine frais. L'effet de la nature multiéchelle de l'écoulement sur la vitesse moyenne du front est compris par une méthode de renormalisation dont la validation est fournie par l'obtention d'un courbe maitresse pour l'ensemble des données
The propagation of a reaction-diffusion front is experimentally studied in a multi-scale cellular flow. The front is produced by an autocatalytic chemical reaction in an aqueous solution. The flow is generated by electroconvection and its multi-scale nature is induced by overlaying magnets of different scales. This enables an independent tune of the flow intensity at each scale. The geometry and the mean velocity of the front have been determined over a large range of scale intensities. These features are confirmed by a numerical simulation based on a burnt and fresh domain dynamics, the burnt domain expanding across the fresh one. The effect of the multi-scale nature of the flow on the mean front velocity is recovered by a renormalisation method validated by a collapse of the data onto a single curve
Styles APA, Harvard, Vancouver, ISO, etc.
17

Brion, Véronique. « Towards real-time diffusion imaging : noise correction and inference of the human brain connectivity ». Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112058/document.

Texte intégral
Résumé :
La plupart des constructeurs de systèmes d'imagerie par résonance magnétique (IRM) proposent un large choix d'applications de post-traitement sur les données IRM reconstruites a posteriori, mais très peu de ces applications peuvent être exécutées en temps réel pendant l'examen. Mises à part certaines solutions dédiées à l'IRM fonctionnelle permettant des expériences relativement simples ainsi que d'autres solutions pour l'IRM interventionnelle produisant des scans anatomiques pendant un acte de chirurgie, aucun outil n'a été développé pour l'IRM pondérée en diffusion (IRMd). Cependant, comme les examens d'IRMd sont extrêmement sensibles à des perturbations du système hardware ou à des perturbations provoquées par le sujet et qui induisent des données corrompues, il peut être intéressant d'investiguer la possibilité de reconstruire les données d'IRMd directement lors de l'examen. Cette thèse est dédiée à ce projet innovant. La contribution majeure de cette thèse a consisté en des solutions de débruitage des données d'IRMd en temps réel. En effet, le signal pondéré en diffusion peut être corrompu par un niveau élevé de bruit qui n'est plus gaussien, mais ricien ou chi non centré. Après avoir réalisé un état de l'art détaillé de la littérature sur le bruit en IRM, nous avons étendu l'estimateur linéaire qui minimise l'erreur quadratique moyenne (LMMSE) et nous l'avons adapté à notre cadre de temps réel réalisé avec un filtre de Kalman. Nous avons comparé les performances de cette solution à celles d'un filtrage gaussien standard, difficile à implémenter car il nécessite une modification de la chaîne de reconstruction pour y être inséré immédiatement après la démodulation du signal acquis dans l'espace de Fourier. Nous avons aussi développé un filtre de Kalman parallèle qui permet d'appréhender toute distribution de bruit et nous avons montré que ses performances étaient comparables à celles de notre méthode précédente utilisant un filtre de Kalman non parallèle. Enfin, nous avons investigué la faisabilité de réaliser une tractographie en temps-réel pour déterminer la connectivité structurelle en direct, pendant l'examen. Nous espérons que ce panel de développements méthodologiques permettra d'améliorer et d'accélérer le diagnostic en cas d'urgence pour vérifier l'état des faisceaux de fibres de la substance blanche
Most magnetic resonance imaging (MRI) system manufacturers propose a huge set of software applications to post-process the reconstructed MRI data a posteriori, but few of them can run in real-time during the ongoing scan. To our knowledge, apart from solutions dedicated to functional MRI allowing relatively simple experiments or for interventional MRI to perform anatomical scans during surgery, no tool has been developed in the field of diffusion-weighted MRI (dMRI). However, because dMRI scans are extremely sensitive to lots of hardware or subject-based perturbations inducing corrupted data, it can be interesting to investigate the possibility of processing dMRI data directly during the ongoing scan and this thesis is dedicated to this challenging topic. The major contribution of this thesis aimed at providing solutions to denoise dMRI data in real-time. Indeed, the diffusion-weighted signal may be corrupted by a significant level of noise which is not Gaussian anymore, but Rician or noncentral chi. After making a detailed review of the literature, we extended the linear minimum mean square error (LMMSE) estimator and adapted it to our real-time framework with a Kalman filter. We compared its efficiency to the standard Gaussian filtering, difficult to implement, as it requires a modification of the reconstruction pipeline to insert the filter immediately after the demodulation of the acquired signal in the Fourier space. We also developed a parallel Kalman filter to deal with any noise distribution and we showed that its efficiency was quite comparable to the non parallel Kalman filter approach. Last, we addressed the feasibility of performing tractography in real-time in order to infer the structural connectivity online. We hope that this set of methodological developments will help improving and accelerating a diagnosis in case of emergency to check the integrity of white matter fiber bundles
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lagny, Thibaut. « Myosine 1b – Mécanique membranaire et dynamique cellulaire ». Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLET007.

Texte intégral
Résumé :
La myosine 1b, un moteur moléculaire non-conventionnel, est impliquée dans une variété de processus cellulaires, contrôlant, par exemple la morphologie endomembranaire, le développement des axones et la ségrégation cellulaire. Le mécanisme par lequel la myosine 1b est capable de remplir ses fonctions dans une variété de régions cellulaires reste inconnu à ce jour, mais les phénotypes décrits suggèrent un rôle de la myosine 1b à l'interface entre les membranes et l'actine. Notamment, elle est nécessaire pour une ségrégation cellulaire efficace après l'activation du récepteur EphB2 qui induit la contraction cellulaire.Cette thèse présente une caractérisation détaillée des effets de la myosine 1b sur (1) les propriétés mécaniques de la membrane cellulaire, étudiées par tirage de tubes membranaires à l’aide d’une pince optique, et (2) la dynamique du cytosquelette d'actine et des protéines transmembranaires, étudiées à l’aide d’une variété de méthodes basées sur l’imagerie microscopique.Dans cette thèse nous montrons que les myosines de classe 1 ne changent pas généralement la tension membranaire effective dans les cellules adhérentes, probablement en raison de mécanismes de compensation efficaces. De plus, nous montrons que la friction entre le cortex d'actine et la membrane plasmique dépend de la densité totale des liens entre membrane et cortex et de la fraction relative des protéines liées. L’inefficacité de la contraction cellulaire observée en absence de la myosine 1b est donc indépendante d'un changement global et persistant de la tension membranaire effective.Dans la deuxième partie de cette thèse, nous montrons que la myosine 1b ne modifie pas la dynamique du récepteur EphB2, c'est-à-dire son comportement de diffusion et de clustering, dans la membrane plasmique.Enfin, en utilisant la microscopie TIRF-SIM et une description quantitative des flux d'actine, nous révélons que la myosine 1b a un effet intrigant mais non-intuitif sur la dynamique de l'actine à la surface ventrale des cellules.En conclusion, même si le mécanisme par lequel la myosine 1b change la réponse cellulaire après stimulation des récepteurs EphB2 reste encore inconnu, nous avons finalement été en mesure de lier sa fonction à une observation bien définie et quantifiable, à savoir la modification de la dynamique des flux d'actine. Les expériences futures seront en mesure de répondre à cette observation et de disséquer son mécanisme sous-jacent. Cela permettra de conclure si la myosine 1b a un effet commun qui régit tous ses rôles biologiques décrits
The unconventional motor protein myosin 1b is involved in a variety of cellular processes, controlling, e.g. endomembrane shape, axon development, and cell segregation. The mechanism by which myosin 1b is able to fulfil its functions in a variety of cellular locations remains unknown to date, yet the described phenotypes suggest a role of myosin 1b at the interface between membranes and actin. Notably, it is required for efficient cell segregation after activation of the EphB2 receptor which induces cell contraction.This thesis presents a detailed characterization of the effects of myosin 1b on (1) the mechanical properties of the cell membrane, studied by membrane tether pulling with an optical tweezer, and (2) the dynamics of the actin cytoskeleton and transmembrane proteins, studied by a variety of microscopy-based methods.Here we show that class 1 myosins do not generally change effective membrane tension in adherent cells, likely due to efficient compensation mechanisms. Furthermore, we show that friction between the actin cortex and the plasma membrane depends on the total density of membrane-cortex linkers and the relative fraction of bound proteins. The observed deficiency in cell contraction in absence of myosin 1b is thus independent of a persistent, global change in effective membrane tension.In the second part of this thesis, we show that myosin 1b likely does not change EphB2’s receptor dynamics in the plasma membrane, i.e. its diffusion and clustering behavior.Finally, using TIRF-SIM imaging and quantitative description of actin flows, we reveal that myosin 1b has an intriguing yet non-intuitive effect on actin dynamics at the cellular ventral surface.In conclusion, even if the mechanism by which myosin 1b changes cellular response to EphB2 stimulation still remains unknown, we have finally been able to pinpoint its function to a well-defined and quantifiable observation, i.e. changed actin flow dynamics. Future experiments will be able to address this observation and dissect its underlying mechanism. This will allow concluding on whether myosin 1b has a common effect that governs all its described biological roles
Styles APA, Harvard, Vancouver, ISO, etc.
19

Birkby, Paul. « Numerical studies of reacting and non-reacting underexpanded sonic jets ». Thesis, Loughborough University, 1998. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.297581.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Laurens, Marina. « Etude des conséquences de l'ischémie-reperfusion sur le processus de mort cellulaire et de leurs correction ». Nice, 2004. http://www.theses.fr/2004NICE4040.

Texte intégral
Résumé :
En chirurgie hépatique, pour limiter les pertes sanguines, la circulation doit être interrompue dans le territoire hépatique concerné. Les phases d'ischémie auxquelles succèdent les phases de reperfusion de l'organe entraînent des lésions cellulaires conduisant à la fois à la nécrose et à l'apoptose des tissus. Le travail présenté utilise deux modèles expérimentaux chez les rat et/ou la souris : un modèle original d'ischémie-reperfusion (I/R) permettant, chez un même animal, d'étudier les trois conditions (ischémie, ischémie-reperfusion, témoin) et un modèle, in vitro, d'hépatocytes en culture primaire, soumis à des variations de la pression partielle d'oxygène, simulant les conditions chirurgicales. Dans la première partie de ce travail, nous avons montré les conséquences de l'ischémie-reperfusion (ou de l'hypoxie-réoxygénation) sur l'activation des protéines de stress. Les Stress-Activated Protein Kinases (SAPKs) sont sensibles à l'environnement cellulaire et peuvent être activées par différents stress tels que les ultraviolets, les chocs osmotiques ou les radicaux libres. Dans nos conditions d'étude, mimant celles de la chirurgie hépatique, l'ischémie-reperfusion et l'hypoxie-réoxygénation augmentent l'activation de JNK1 (mesurée par immunoprécipitation in vitro et par immunohistolocalisation, in vivo), et le taux d'apoptose (mise en évidence par la détermination de l'activité enzymatique et Western blot de la caspase 3, par la fragmentation de l'ADN, in vitro et par immunohistolocalisation et TUNEL, in vivo). L'utilisation d'un inhibiteur de SAPKs, le SB202190 (35 æM), diminue l'activation de JNK ainsi que le taux d'apoptose mettant ainsi en évidence la participation de JNK dans le processus apoptotique. Au cours de l'ischémie-reperfusion, la concentration intracellulaire de calcium augmente et entraîne des dommages cellulaires. L'utilisation de diltiazem, un inhibiteur des canaux-voltages dépendants de type-L, capable également d'inhiber les canaux ROCCs (receptor-operated calcium channel) présents sur la membrane des hépatocytes, réduit l'activation de JNK et le taux d'apoptose. Le tacrolimus (FK506), immunosuppresseur utilisé après transplantation et connu pour ses propriétés hépatoprotectrices, diminue aussi l'activation de JNK et l'apoptose induites par les variations de PO2. Enfin, la technique d'ischémie intermittente, fréquemment utilisée en chirurgie, qui consiste à fragmenter la durée totale de l'ischémie (hypoxie) entraîne également une diminution de l'activation de JNK et du taux d'apoptose. La deuxième partie de ce travail porte sur la nécrose et étudie les chimiokines, molécules chimio-attractantes dont le rôle principal est d'attirer les leucocytes sur le lieu du stress cellulaire et qui sont impliquées dans les lésions d'ischémie-reperfusion du foie. Nous avons mesuré (par RNAse Protection Assay) la modulation de la sécrétion de chimiokines par l'hypoxie et l'hypoxie-réoxygénation sur des hépatocytes de souris en culture primaires, en présence ou non de TNFa (20 ng/ml) ou sur des cocultures hépatocytes/cellules de Kupffer. Dans nos conditions d'études, seuls les ARNm de MCP-1 (monocyte chemoattractant protein) et MIP-2 (macrophage inflammatory protein-2) sont transcrits. La présence de TNFa (20 ng/ml) ou les cocultures avec les cellules de Kupffer augmentent cette transcription. La sécrétion des chimiokines MCP-1 et MIP-2 est mesurée par la technique ELISA, sur le milieu de culture des hépatocytes, soumis à un stress d'hypoxie-réoxygénation en présence ou non de TNFa (20 ng/ml). Aucun protocole chirurgical (hypoxie intermittente ou preconditioning) ne réduit la transcription de MCP-1 et MIP-2. La troisième partie de ce travail porte sur la stéatose non alcoolique qui est une pathologie en progression. Les foies stéatosiques sont récusés pour transplantation et présentent une hypersensibilité à l'ischémie-reperfusion qui se traduit notamment par une mort cellulaire de type nécrose. Afin de déterminer les causes de cette hypersensibilité, nous avons étudié les variations de la concentration en ATP des cellules hépatiques. L'utilisation de tacrolimus limite la chute de l'ATP intracellulaire pendant l'ischémie permettant ainsi de diminuer la nécrose induite par l'ischémie-reperfusion et améliorant le taux de survie des rats Zucker obèses. Les perturbations induites par l'ischémie-reperfusion sont nombreuses et multifactorielles. Nous avons, dans ce travail, mis en évidence quelques unes d'entre elles et nous avons proposé des moyens de correction faciles à transposer chez l'homme, puisque utilisant des molécules et/ou des techniques déjà connues et maîtrisées. Nous espérons ainsi participer à l'amélioration de la prise en charge des patients.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Etchegaray, Christèle. « Modélisation mathématique et numérique de la migration cellulaire ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS428/document.

Texte intégral
Résumé :
Les déplacements cellulaires, collectifs ou individuels, sont essentiels pour assurer des fonctions fondamentales de l'organisme (réponse immunitaire, morphogenèse), mais jouent également un rôle crucial dans le développement de certaines pathologies (invasion métastatique).Les processus cellulaires à l'origine du déplacement forment une activité complexe, auto-organisée et fortement multi-échelle en temps mais aussi en espace. Mettre en évidence des principes généraux de la migration est donc un enjeu majeur. Dans cette thèse, nous nous intéressons à la construction de modèles de migration individuelle qui prennent en compte ce caractère multi-échelle de manière minimale.Dans une première partie, nous nous intéressons à des modèles particulaires. Nous décrivons des processus intracellulaires clés de la migration de manière discrète au moyen de processus de population. Puis, par une renormalisation en grand nombre d'individus, taille infinitésimale et dynamique accélérée, nous obtenons des équations de dynamique continue et stochastique, permettant de faire le lien entre la dynamique intracellulaire et le déplacement macroscopique.Nous nous confrontons d'abord à la situation d'un leucocyte se déplaçant dans une artère, et développant des liaisons de différentes natures avec les molécules de la paroi, jusqu'à éventuellement s'arrêter. La dynamique de formation de liaisons est décrite par un processus stochastique de type Naissance et Mort avec Immigration. Ces liaisons correspondent à des forces de résistance au mouvement. Nous obtenons explicitement le temps d'arrêt moyen de la cellule.Puis, nous nous intéressons à la reptation cellulaire, qui se produit grâce à la formation d'excroissances au bord de la cellule, appelées protrusions, qui avancent sur le substrat et exercent des forces de traction. Nous modélisons cette dynamique au moyen d'un processus de population structurée par l'orientation de la protrusion. Le modèle continu limite obtenu peut être étudié pour la migration 1D, et donne lieu à une équation de Fokker-Planck sur la distribution de probabilité de la population de protrusion. L'étude d'une configuration stationnaire permet de mettre en avant une dichotomie entre un état non motile et un état de déplacement directionnel.Dans une seconde partie, nous construisons un modèle déterministe minimal de migration dans un domaine discoïdal non déformable. Nous nous basons sur l'idée selon laquelle les structures responsables de la migration renforcent la polarisation de la cellule, ce qui favorise en retour un déplacement directionnel. Cette boucle positive passe par le transport d'un marqueur moléculaire dont la répartition inhomogène caractérise un état polarisé.Le modèle comporte un problème de convection-diffusion sur la concentration en marqueur, où le champs d'advection correspond à la vitesse d'un fluide de Darcy modélisant le cytosquelette. Son caractère actif est porté par des termes de bord, ce qui fait l'originalité du modèle.Du point de vue analytique, le modèle 1D présente une dichotomie face à une masse critique. Dans les cas sous-critique et critique, il est possible de montrer l'existence globale de solutions faibles, ainsi que la convergence à taux explicite vers l'unique état stationnaire correspondant à un état non polarisé. Au delà de la masse critique et pour des masses intermédiaires, nous mettons en évidence deux états stationnaires supplémentaires correspondant à des profils polarisés. De plus, pour des conditions initiales assez asymétrique, nous démontrons l'apparition d'un blow-up en temps fini.Du point de vue numérique, des tests numériques en 2D sont effectués en volumes finis (Matlab) et éléments finis (FreeFem++). Ils permettent de mettre en évidence à nouveau des états motiles et non motiles. L'effet de perturbations stochastiques est étudié, permettant d'aborder des cas de réponse à des signaux extérieurs chimique (chimiotactisme) ou mécanique (obstacle)
Collective or individual cell displacements are essential in fundamental physiological processes (immune response, embryogenesis) as well as in pathological developments (tumor metastasis). The intracellular processes responsible for cell motion have a complex self-organized activity spanning different time and space scales. Highlighting general principles of migration is therefore a challenging task.In a first part, we build stochastic particular models of migration. To do so, we describe key intracellular processes as discrete in space by using stochastic population models. Then, by a renormalization in large population, infinitesimal size and accelerated dynamics, we obtain continuous stochastic equations for the dynamics of interest, allowing a relation between the intracellular dynamics and the macroscopic displacement.First, we study the case of a leukocyte carried by the blood flow and developing adhesive bonds with the artery wall, until an eventual stop. The binding dynamics is described by a stochastic Birth and Death with Immigration process. These bonds correspond to resistive forces to the motion. We obtain explicitly the mean stopping time of the cell.Then, we study the case of cell crawling, that happens by the formation of protrusions on the cell edge, that grow on the substrate and exert traction forces. We describe this dynamics by a structured population process, where the structure comes from the protrusions' orientations. The limiting continuous model can be analytically studied in the 1D migration case, and gives rise to a Fokker-Planck equation on the probability distribution for the protrusion density. For a stationary profile, we can show the existence of a dichotomy between a non motile state and a directional displacement state.In a second part, we build a deterministic minimal migration model in a discoïdal cell domain. We base our work on the idea such that the structures responsible for migration also reinforce cell polarisation, which favors in return a directional displacement. This positive feedback loop involves the convection of a molecular marker, whose inhomogeneous spatial repartition is characteristic of a polarised state.The model writes as a convection-diffusion problem for the marker's concentration, where the advection field is the velocity field of the Darcy fluid that describes the cytoskeleton. Its active character is carried by boundary terms, which makes the originality of the model.From the analytical point of vue, the 1D model shows a dichotomy depending on a critical mass for the marker. In the subcritical and critical cases, it is possible to show global existence of weak solutions, as well as a rate-explicit convergence of the solution towards the unique stationary profile, corresponding to a non-motile state. Above the critical mass, for intermediate values, we show the existence of two additional stationary solutions corresponding to polarised motile profiles. Moreover, for asymmetric enough initial profiles, we show the finite time apparition of a blowup.Studying a more complex model involving activation of the marker at the cell membrane permits to get rid of this singularity.From the numerical point of vue, numerical experiments are led in 2D either in finite volumes (Matlab) or finite elements (FreeFem++) discretizations. They allow to show both motile and non motile profiles. The effect of stochastic fluctuations in time and space are studied, leading to numerical simulations of cases of responses to an external signal, either chemical (chemotaxis) or mechanical (obstacles)
Styles APA, Harvard, Vancouver, ISO, etc.
22

Bastien, Guérin. « Nouvelle méthode spatio-spectrale de correction de la diffusion en tomographie à émission de positons ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00488904.

Texte intégral
Résumé :
Nous avons développé une simulation de Monte Carlo rapide pour la tomographie à émission de positons (TEP) fondée sur le code SimSET modélisant la propagation des photons gammas dans le patient et le scanner basé sur un design en blocs. La validation de ce simulateur avec un code bien validé, GATE, et des données acquises sur un scanner TEP GE Discovery STE a montré qu'il modélise précisément les spectres en énergie (erreur inférieure à 4,6%), la résolution spatiale (6,1%), la fraction de diffusé (3,5%), la sensibilité aux coïncidences primaires (2,3%) et les taux de comptage (12,7%). Nous avons ensuite développé une correction de la diffusion incorporant l'énergie des photons détectés en mode liste en plus de la distribution spatiale des coïncidences diffusées. Notre approche est basée sur une reformulation de la fonction de vraisemblance contenant l'information en énergie donnant lieu à un algorithme de reconstruction EM contenant des termes de correction de la diffusion spatiaux et énergétiques. Nous avons aussi proposé une nouvelle méthode de normalisation du sinogramme diffusé utilisant l'information en énergie. Enfin, nous avons développé une méthode d'estimation des spectres primaires et diffusés détectés dans différents secteurs du scanner TEP. Nous avons évalué notre méthode spatio-spectrale de correction de la diffusion ainsi que la méthode spatiale traditionnelle dans des simulations de Monte Carlo réalistes. Ces résultats montrent que notre approche réduit les biais de quantification de 60% dans les régions froides dans les patients obèses, donnant lieu à des erreurs de quantification inférieures à 13% même dans les patients les plus larges en mode 3D (comparé à une erreur de 65% avec la méthode conventionnelle).
Styles APA, Harvard, Vancouver, ISO, etc.
23

Brion, Véronique. « Imagerie de diffusion en temps-réel : correction du bruit et inférence de la connectivité cérébrale ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00821493.

Texte intégral
Résumé :
La plupart des constructeurs de systèmes d'imagerie par résonance magnétique (IRM) proposent un large choix d'applications de post-traitement sur les données IRM reconstruites a posteriori, mais très peu de ces applications peuvent être exécutées en temps réel pendant l'examen. Mises à part certaines solutions dédiées à l'IRM fonctionnelle permettant des expériences relativement simples ainsi que d'autres solutions pour l'IRM interventionnelle produisant des scans anatomiques pendant un acte de chirurgie, aucun outil n'a été développé pour l'IRM pondérée en diffusion (IRMd). Cependant, comme les examens d'IRMd sont extrêmement sensibles à des perturbations du système hardware ou à des perturbations provoquées par le sujet et qui induisent des données corrompues, il peut être intéressant d'investiguer la possibilité de reconstruire les données d'IRMd directement lors de l'examen. Cette thèse est dédiée à ce projet innovant. La contribution majeure de cette thèse a consisté en des solutions de débruitage des données d'IRMd en temps réel. En effet, le signal pondéré en diffusion peut être corrompu par un niveau élevé de bruit qui n'est plus gaussien, mais ricien ou chi non centré. Après avoir réalisé un état de l'art détaillé de la littérature sur le bruit en IRM, nous avons étendu l'estimateur linéaire qui minimise l'erreur quadratique moyenne (LMMSE) et nous l'avons adapté à notre cadre de temps réel réalisé avec un filtre de Kalman. Nous avons comparé les performances de cette solution à celles d'un filtrage gaussien standard, difficile à implémenter car il nécessite une modification de la chaîne de reconstruction pour y être inséré immédiatement après la démodulation du signal acquis dans l'espace de Fourier. Nous avons aussi développé un filtre de Kalman parallèle qui permet d'appréhender toute distribution de bruit et nous avons montré que ses performances étaient comparables à celles de notre méthode précédente utilisant un filtre de Kalman non parallèle. Enfin, nous avons investigué la faisabilité de réaliser une tractographie en temps-réel pour déterminer la connectivité structurelle en direct, pendant l'examen. Nous espérons que ce panel de développements méthodologiques permettra d'améliorer et d'accélérer le diagnostic en cas d'urgence pour vérifier l'état des faisceaux de fibres de la substance blanche.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Hering, Jan [Verfasser], et Bernd [Akademischer Betreuer] Jähne. « Robust Motion and Distortion Correction of Diffusion-Weighted MR Images / Jan Hering ; Betreuer : Bernd Jähne ». Heidelberg : Universitätsbibliothek Heidelberg, 2016. http://d-nb.info/1180737466/34.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Guérin, Bastien. « Nouvelle méthode spatio-spectrale de correction de la diffusion en tomographie à émission de positons ». Paris 6, 2010. http://www.theses.fr/2010PA066129.

Texte intégral
Résumé :
Nous avons développé une simulation de Monte Carlo rapide pour la tomographie à émission de positons (TEP) fondée sur le code SimSET modélisant la propagation des photons gammas dans le patient et le scanner basé sur un design en blocs. La validation de ce simulateur avec un code bien validé, GATE, et des données acquises sur un scanner TEP GE Discovery STE a montrée qu’il modélise précisément les spectres en énergie (erreur 4,6%), la résolution spatiale (6,1%), la fraction de diffusé (3,5%), la sensibilité aux coïncidences primaires (2,3%) et les taux de comptage (12,7%). Nous avons ensuite développé une nouvelle correction spatio-spectrale de la diffusion. Notre approche est basée sur une reformulation de la fonction de vraisemblance contenant l’information en énergie donnant lieu à un algorithme de reconstruction EM contenant des termes de correction de la diffusion spatiaux et énergétiques. Nous avons aussi proposé une nouvelle méthode de normalisation du sinogramme diffusé utilisant l’information en énergie. Enfin, nous avons développé une méthode d’estimation des spectres primaires et diffusés détectés dans différents secteurs du scanner TEP. Nous avons évalué notre méthode spatio-spectrale de correction de la diffusion ainsi que la méthode spatiale traditionnelle dans des simulations de Monte Carlo réalistes. Ces résultats montrent que notre approche réduit les biais de quantification de 60% dans les régions froides dans les patients obèses, donnant lieu à des erreurs de quantification inférieures à 13% même dans les patients les plus larges en mode 3D (comparé à une erreur de 65% avec la méthode conventionnelle).
Styles APA, Harvard, Vancouver, ISO, etc.
26

Pizzolato, Marco. « IRM computationnelle de diffusion et de perfusion en imagerie cérébrale ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4017/document.

Texte intégral
Résumé :
Les techniques d'imagerie par résonance magnétique de Diffusion (IRMd) et de Perfusion (IRMp) permettent la détection de divers aspects importants et complémentaires en imagerie cérébrale. Le travail effectué dans cette thèse présente des contributions théoriques et méthodologiques sur les modalités d'IRM basées sur des images pondérées en diffusion, et sur des images de perfusion par injection de produit de contraste. Pour chacune des deux modalités, les contributions de la thèse sont liées au développement de nouvelles méthodes pour améliorer la qualité, le traitement et l'exploitation des signaux acquis. En IRM de diffusion, la nature complexe du signal est étudiée avec un accent sur l'information de phase. Le signal complexe est ensuite exploité pour corriger le biais induit par le bruit d'acquisition des images, améliorant ainsi l'estimation de certaines métriques structurelles. En IRM de perfusion, le traitement du signal est revisité afin de tenir compte du biais dû à la dispersion du bolus. On montre comment ce phénomène, qui peut empêcher la correcte estimation des métriques de perfusion, peut aussi donner des informations importantes sur l'état pathologique du tissu cérébral. Les contributions apportées dans cette thèse sont présentées dans un cadre théorique et méthodologique validé sur de nombreuses données synthétiques et réelles
Diffusion and Perfusion Magnetic Resonance Imaging (dMRI & pMRI) represent two modalities that allow sensing important and different but complementary aspects of brain imaging. This thesis presents a theoretical and methodological investigation on the MRI modalities based on diffusion-weighted (DW) and dynamic susceptibility contrast (DSC) images. For both modalities, the contributions of the thesis are related to the development of new methods to improve and better exploit the quality of the obtained signals. With respect to contributions in diffusion MRI, the nature of the complex DW signal is investigated to explore a new potential contrast related to tissue microstructure. In addition, the complex signal is exploited to correct a bias induced by acquisition noise of DW images, thus improving the estimation of structural scalar metrics. With respect to contributions in perfusion MRI, the DSC signal processing is revisited in order to account for the bias due to bolus dispersion. This phenomenon prevents the correct estimation of perfusion metrics but, at the same time, can give important insights about the pathological condition of the brain tissue. The contributions of the thesis are presented within a theoretical and methodological framework, validated on both synthetical and real images
Styles APA, Harvard, Vancouver, ISO, etc.
27

Rinkel, Jean. « Correction du diffusé pour la reconstruction tomographique quantitative avec un capteur plan numérique ». Grenoble 1, 2006. http://www.theses.fr/2006GRE10117.

Texte intégral
Résumé :
La tomographie X en géométrie conique permet de réaliser de la tomodensitométrie volumique par une simple rotation du système source-détecteur et d'obtenir des volumes reconstruits à résolution isotrope. Dans une telle géométrie, la détection est réalisée par des capteurs plans numériques. Une des principales limitations de ces derniers est que le rayonnement diffusé atteignant le capteur est bien plus important que pour les tomographes classiques à capteurs linéaires ou multibarrettes. Ce rayonnement diffusé crée des artefacts de sous-estimations des coefficients d'atténuation sur les images reconstruites. Dans cette thèse, nous proposons des méthodes de prétraitement des données et de correction du diffusé pour réaliser de la tomodensitométrie quantitative avec capteur plan et évaluons expérimentalement ces méthodes dans un contexte médical. Une première partie décrit comment mettre en oeuvre un banc de tomographie comportant un capteur plan. A cet effet, un protocole d'acquisition assurant la reproductibilité des acquisitions est défini. Des méthodes de prétraitement numérique des acquisitions corrigeant les artefacts causés par le capteur sont proposées. Outre la correction des pixels défectueux, du niveau d'obscurité et de la non-uniformité de la réponse des différents pixels, des corrections indispensables à une bonne quantification sont développées. Elles comprennent la correction de la non-linéarité de la réponse des pixels et celle d'un signal parasite, appelé diffusé capteur, qui regroupe les phénomènes de diffusion X et optique ayant lieu à l'intérieur du capteur. Ces méthodes sont validées expérimentalement sur des fantômes représentatifs d'un thorax. Dans une seconde partie, une nouvelle méthode de correction du rayonnement diffusé par l'objet examiné est proposée. Elle est basée sur une estimation des images de rayonnement diffusé associées à chaque angle de vue tomographique par un calibrage du diffusé généré par des objets de référence couplé à une modélisation analytique du diffusé du premier ordre. Cette méthode est validée sur des fantômes représentatifs de thorax dans une configuration du banc expérimental sans grille anti diffusante. Une adaptation de la méthode avec grille anti diffusante est proposée et évaluée expérimentalement
Cone Bearn Computed Tomography has the advantage of mechanical simplicity in that full 3D information can be acquired by a single rotation of the source-detector system and used to obtain isotropic reconstructed volumes. However, detection is performed by a flat panel detector and one of the main drawbacks of such detectors is that the amount of scatter reaching them is much higher than that observed in fan beam systems. The scattered radiation induces artefacts that result in under-estimates of the attenuation coefficients in reconstructed images. The aim of this thesis is to develop data pre-processing and scatter correction methods to be used in quantitative three-dimensional imaging with a flat-panel detector and to evaluate these methods in a medical context. The first part of the study describes the experimental bench set-up and defines the protocol used to ensure that data acquisitions are reproducible. Next, pre-processing methods used to correct the artefacts due to the detector are described. These methods concern the correction of defective pixels, image darkness and the spatial non-uniformity of detector response. Original methods are also proposed to correct detector non-linearity and scattering, including X-ray scatter and optical diffusion within the detector. These methods are validated experimentally on thorax phantoms. The last part of the study proposes a new method to correct the scattered radiation generated within the examined object. The method is based on an estimation of the scattered radiation images associated with each tomographic angle of view. Estimation is performed by a calibration of scattering on reference objects combined with analytical modelling of the first-order scattering process. This method is validated on thorax phantoms in a configuration of the experimental bench that has no anti-scatter grid. An adaptation of the method using an anti-scatter grid is also proposed and evaluated experimentally
Styles APA, Harvard, Vancouver, ISO, etc.
28

Donner, Quentin. « Correction de l'atténuation et du rayonnement diffusé en tomographie d'émission à simples photons ». Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10155.

Texte intégral
Résumé :
L'objectif de la tomographie d'émission à simples photons est d'établir une image fonctionnelle d'un organe. Pour ce faire, on administre au patient un radioélément qui se fixe dans l'organe, puis on calcule la distribution du radioélément à partir de mesures du rayonnement émis. Une proportion non négligeable de ce rayonnement interagit cependant dans la matière. L'objectif de ces travaux est de tenir compte de ces interactions afin de reconstruire plus précisément. Après avoir décrit les principales caractéristiques du système d'acquisition, nous nous consacrons a la reconstruction de la distribution d'émission à partir de projections atténuées, notamment quand la géométrie d'acquisition est conique. Plusieurs méthodes du type prédiction-correction sont fréquemment utilisées, mais leur convergence n'est pas établie. En fait, nous montrons théoriquement que la plus simple de ces méthodes diverge dans un cas particulier. La correction d'atténuation peut également être traitée par la méthode du gradient préconditionnée. Nous proposons plusieurs préconditionnements, qui conduisent à différents algorithmes de reconstruction. Ces algorithmes présentent de grandes analogies avec les algorithmes de prédiction-correction, mais ils ont l'avantage d'être convergents. Nous terminons ce chapitre en validant une méthode du type prédiction-correction, celle de Morozumi, sur données simulées et sur données expérimentales. Nous abordons ensuite le problème de la détermination de l'objet atténuant suivant deux approches. La première repose sur l'utilisation des mesures de rayonnement direct: on reconstruit l'émission une première fois sans corriger l'atténuation, puis on ajuste un ellipsoïde aux contours extérieurs de cette image. La seconde approche est basée sur l'utilisation des mesures du rayonnement diffuse: nous étudions la possibilité d'utiliser ces mesures pour établir une cartographie d'atténuation et nous mettons en évidence les difficultés liées a ce problème. Nous terminons en regardant comment la cartographie d'atténuation peut servir à corriger les effets du rayonnement diffuse. Nous proposons une méthode du type prédiction-correction, nous discutons sa convergence, puis nous la comparons a une méthode classique sur données expérimentales. .
The aim of single photon emission tomography is to compute a functional picture of an organ. This is done by administering to the patient a radiopharmaceutical which is fixing in the organ. Then, one computes the distribution of the radiopharmaceutical from the measurement of the emitted gamma-rays. However, an important part of these gamma-rays are interacting with the matter inside the body. The aim of this work is to take these interactions into account so as to reconstruct more accurately. .
Styles APA, Harvard, Vancouver, ISO, etc.
29

Mallet, François. « Cohérence quantique, diffusion magnétique et effets topologiques ». Grenoble 1, 2006. https://theses.hal.science/tel-00546850.

Texte intégral
Résumé :
Dans mon mémoire de Thèse sont regroupés des résultats expérimentaux, centrés autour de la thématique de la cohérence quantique des électrons à très basse température, obtenus à partir de mesures très précises des corrections quantiques au transport classique dans les nanostructures métalliques. Nous avons tout d'abord étudié les effets de cohérence dans des réseaux de fils métalliques. Nous avons montré l'influence de la dimension du régime de diffusion sur la cohérence. En passant d'un conducteur macroscopique à un conducteur mésoscopique, on a observé un “crossover” dimensionnel pour l'amplitude des diverses corrections quantiques quand la longueur de cohérence de phase excède la taille typique du système, ce qui nous a permis de préciser exactement ce qu'est la moyenne d'ensemble en Physique Mésoscopique. Dans la deuxième partie de ce manuscrit, nous avons présenté des mesures du temps de cohérence de phase dans des fils métalliques contenant des impuretés magnétiques. Ces échantillons ont été fabriqués d'une fa¸con originale et contrôlée en utilisant une technologie nouvelle grâce à l'utilisation d'un faisceau d'ions focalisé. Nous avons mesuré un comportement universel sur 2 decades en temperature du déphasage par impuretés implantées, ceci étant la preuve que cette décohérence supplémentaire s'inscrit dans la Physique de l'effet Kondo. Nous avons montré que le taux de déphasage mesuré est en très bon accord avec de récents calculs du Groupe de Renormalisation Numérique. Plus particulièrement, nous avons montré de façon non équivoque que l'écrantage en dessous de TK induit une désaturation du temps de cohérence de phase linéaire en température jusqu'à 0, 1 TK
In this thesis are reported experimental results centered on the thematic of the electronic quantum coherence at very low temperatures, obtained by very precise measurements of the quantum correction to the classical electronic transport in metallic nanostructures. We have first studied the coherence effects in network of metallic one-dimensional wires. We have shown the influence on the coherence itself of the diffusion dimensionality. By going from a macroscopic conductor to a purely mesoscopic one, we measured a crossover in the scaling of the quantum corrections amplitudes when the phase coherence length exceed the typical size of the system. This has allowed us to really precise what the ensemble averaging is in Mesoscopic Physics. In the second part of this work, we have shown the temperature dependence of the phase coherence length in metallic wire with magnetic impurities. These samples were fabricated in a very new and controlled way, by using a new technics with a focus ion beam. We have measured a universal behavior over 2 decades in temperature for the dephasing due to one magnetic impurity. This was the direct prove that this added decoherence belongs to the physics of the generic many body problem named « Kondo Physics ». We have finally shown that the measured dephasing rate was in excellent agreement with recent theoretical calculations based one the numerical renormalization group technics. More precisely we have shown that the magnetic impurities screening induces a linear desaturation of the phase coherence time above 0,1 TK
Styles APA, Harvard, Vancouver, ISO, etc.
30

Kraft, Sandra. « Routine Development for Artefact Correction and Information Extraction from Diffusion Weighted Echo Planar Images of Rats ». Thesis, KTH, Skolan för teknik och hälsa (STH), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-190993.

Texte intégral
Résumé :
Biologists and physicians study complex biologic phenomena in which they use advanced imaging methods. They acquire images containing a lot of information which must be extracted in a correct way. This requires computer skills and knowledge in image processing methods which they seldom have. To overcome the problem, this master thesis aimed to develop a routine for artefact correction and information extraction from images acquired in a research project at the Karolinska Institutet in Stockholm. By developing the routine, the thesis showed how software developed for images of human can be applied to images of rats. The routine handles formatting issues and artefact corrections, calculates diffusion metrics, and performs statistical tests on spatially aligned magnetic resonance images of rats acquired with diffusion weighted echo planar imaging. The routine was verified by analysing the images that it had processed and was considered to create reliable images. Future studies within the field should focus on developing atlases of rats and continue the work with identifying how software developed for images of human can be applied to images of rats.
Biologer och läkare studerar komplexa biologiska processer för vilket de använder avancerade bildgivande metoder. De samlar bilder som innehåller mycket information vilken måste extraheras på ett korrekt sätt. Detta kräver god datorvana och kunskaper inom bildprocessning, vilket de sällan har. För att komma runt problemet, syftade den här masteruppsattsen till att utveckla en rutin för artefaktkorrigering och informationsextrahering från bilder tagna i ett forskningsprojekt vid Karolinska Institutet i Stockholm. Genom att utveckla rutinen, visar uppsattsen hur mjukvaror utvecklade för bilder av människa kan appliceras på bilder av råtta. Rutinen hanterar formatteringsproblem och artefaktkorrigering, beräknar diffusionsmått, och utför statistiska tester på spatiellt matchade magnetresonansavbildningar tagna med diffusionsviktade ekoplana metoder. Rutinen verifierades genom att analysera bilder som den processat och det konstaterades att den skapar korrekta bilder. Framtida studier inom området bör fokusera på att utveckla atlaser av råttor och fortsätta identifieringen av hur mjukvaror utvecklade för bilder av människa kan appliceras på bilder av råtta.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Ali, Olivier. « Etude théorique de la transduction mécano-chimique dans l'adhérence cellulaire ». Grenoble 1, 2010. http://www.theses.fr/2010GRENY022.

Texte intégral
Résumé :
Les systèmes complexes propres à la biologie moléculaire sont des sujets d'investigations privilégiés pour la physique statistique hors équilibre. En particulier la dynamique des systèmes d'adhérents qui a déjà été l'objet de description théorique. Ces descriptions sont restreintes au comportement des plaques d'adhérence focales matures, dont la durée caractéristique est la dizaine de minutes et où beaucoup d'acteurs moléculaires différents interviennent, notamment le cortex d'actine. Cependant, la question des mécanismes moléculaires précoces, précédant la mise en place de ces structures, reste entière et ouverte. L'objectif de cette thèse est de proposer un modèle de transduction mécano-chimique bidirectionnelle — de l'intérieur de la cellule vers l'extérieur et inversement — en se basant sur le caractère allostérique de l'interaction entre les intégrines (sensibles aux propriétés des matrices extracellulaires) et un partenaire cytoplasmique activable, la taline. Ce travail se divise en trois parties : i) une modélisation du bord cellulaire qui repose sur le calcul du potentiel chimique du partenaire activable et de son cycle d'activation, ii) la résolution numérique et analytique des équations précédemment définies et iii) une évolution du précédent modèle où les intégrines sont laissés libres de diffuser et qui vont dans ce cas là se regrouper dans les zones de fortes contraintes
Complex systems observed in molecular biology are subject of major interest for statistical physic out of equilibrium. This is the case in particular of the focal adhesions which has been the center of theoretical investigation. The descriptions of this system have been limited to the understanding of mature focal adhesions that have a life-span superior to ten minutes. However, the understanding of what happen at the early stage remains fully open. The goal of this PhD is to propose a model of bidirectional mecano-chemical transduction process, from the Inside to the outside and reciprocally, based on the allosteric character of the interaction between integrins (sensing the extracellular matrix) and an activable cytoplasmic Partner, talin. This work is divided in three parts : i) a modelisation of the cell border based on the calculation of the chemical potential of the activable Partner and on its cycle of activation, ii) the numerical and analytical resolution of the equations proposed before and iii) an update of the previous model where the integrins have been allowed to diffuse and present in this case the ability to cluster in high constraints regions
Styles APA, Harvard, Vancouver, ISO, etc.
32

Gerin, Chloé. « Modélisation et études histologiques de gliomes diffus de bas grade ». Paris 7, 2012. http://www.theses.fr/2012PA077066.

Texte intégral
Résumé :
Les gliomes diffus de bas grade (GBG) sont des tumeurs cérébrales primaires. Après une phase de croissance lente, ils évoluent en gliomes de haut grade, entrainant une issue fatale. Ce sont des tumeurs très diffuses donc difficiles à traiter. Une meilleure connaissance de ces tumeurs pourrait permettre de les guérir ou, à défaut, d'optimiser les traitements. Nous avons étudié la croissance des GBG grâce à un modèle mathématique simple, ce qui nous a amené à spéculer (i) qu'ils surviennent à l'adolescence, (ii) que l'âge de la tumeur au moment du diagnostic peut être calculé facilement et (iii) que la vitesse de croissance est un facteur pronostique important. Cette dernière prédiction concorde avec les observations cliniques. Pour vérifier ce modèle spatial, nous avons caractérisé quantitativement des tissus de biopsies étagées de GBG humains, en particulier la présence d'œdème. L'analyse de ces données microscopiques étaie l'idée que l'œdème est à l'origine de l'anomalie de signal IRM en séquence T2. Pour prendre en compte ce résultat nouveau, nous avons incorporé l'œdème au modèle initial comme conséquence de la présence de cellules tumorales. Ce modèle permet d'expliquer la longue décroissance du rayon tumoral pendant des dizaines de mois après la radiothérapie : les cellules tumorales désormais moins nombreuses, le drainage de l'œdème devient prédominant. Ce modèle, qui ne comprend que trois paramètres libres, a été validé grâce à des données cliniques sur une vingtaine de patients
Diffuse low-grade gliomas (LGG) are primary brain tumors. After a slow growth, they evolve to high-grade gliomas, resulting into death. These tumors are very diffuse, thus diffîcult to treat. A better knownledge of them could allow to cure them or, failing that, to optimize treatments. We studied the growth of LGG with a simple mathematical model, which led us to speculate (i) that they arise in adolescence, (ii) that the age of the tumor at diagnosis can be calculated easily, and (iii) that the growth rate is an important prognostic factor. This last prediction is consistent with clinical observations. To test this spatial model, we have quantitatively characterized biopsy tissues of human LGG, particularly the presence of edema. The microscopic analysis of these data underpins the idea that edema is the cause of the abnormality seen on T2-weighted MR imaging. To take this new result into account, we have incorporated edema into the initial model as a consequence of the presence of tumor cells. This model helps explain the long decay of the tumor radius for tens of months after radiation therapy: as tumor cells become less numerous, drainage of the edema becomes predominant. This model, which has only three free parameters, has been validated thanks to clinical data from twenty patients
Styles APA, Harvard, Vancouver, ISO, etc.
33

Suissa, Michaël. « Dynamique interne du noyau d'une cellule vivante : étude par diffusion dynamique de la lumière ». Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2006. http://tel.archives-ouvertes.fr/tel-00091487.

Texte intégral
Résumé :
De récents progrès en biologie cellulaire ont montré que le noyau d'une cellule vivante est un ensemble bien organisé de différents domaines ayant chacun une fonction propre. Cette organisation est hautement dynamique. En effet, elle est la clé de l'adaptation de la cellule à son environnement. La dynamique du noyau est ainsi le reflet de l'état de la cellule.
Bien que l'étude de cette dynamique soit devenue l'un des enjeux majeurs de la recherche en biologie cellulaire, la dynamique globale du noyau est encore peu comprise. Pour étudier cette dynamique nous avons mis au point un montage expérimental original de diffusion dynamique de la lumière. Il est à noter que si la diffusion dynamique de la lumière est une technique « classique » pour l'étude des propriétés dynamiques des systèmes moléculaires organisés (i.e. systèmes colloïdaux, surfactants, polymères en solution, gels, cristaux liquides), elle n'avait, encore, jamais été utilisée pour étudier les propriétés dynamiques du noyau d'une cellule vivante. Grâce à ce montage, nous avons étudié la dynamique globale du noyau de cellules neuroblastomes de la lignée SHEP, au cours du cycle cellulaire. Nous avons ainsi pu observer que la dynamique interne du noyau est très riche et très complexe, avec un très grand nombre de temps caractéristiques s'étalant de quelques millisecondes à quelques dizaines de secondes. Par l'analyse des fonctions d'autocorrélation de l'intensité diffusée, < I(0)I(t) >, nous avons, plus particulièrement, sondé la dynamique interne du noyau entre la milliseconde et la seconde. Nous avons mis en évidence deux distributions indépendantes de temps caractéristiques. La première est une distribution de temps rapides compris entre 5 et 70 ms. La deuxième est une distribution de temps plus lent compris entre 0,5 et 2 s. Nous avons montré que ces distributions étaient dépendantes de la phase du cycle dans laquelle se trouvaient les cellules.
Le montage expérimental que nous avons construit nous a également permis de mettre en évidence et d'étudier un processus de transmission de la mort par apoptose d'une cellule vers ses plus proches voisines.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Tang, Chengyong. « Parameter estimation and bias correction for diffusion processes and a nonparametric approach to census population size estimation ». [Ames, Iowa : Iowa State University], 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
35

Ahmadou, Mohamed Diaa. « Contribution au développement d'un dispositif robuste de détection-diffusion d'huiles essentielles à concentration contrôlée ». Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0187/document.

Texte intégral
Résumé :
Ce travail contribue à la conception d’un système de détection-diffusion contrôlant en temps réel la concentration en huile essentielle dans un espace confiné. L’objectif est d’assurer la reproductibilité des conditions d’exposition aux stimuli olfactifs de sujets vivants, afin de tester les impacts neurosensoriels provoqués. La principale contrainte est de pouvoir mesurer, avec de bonnes qualités de rapidité et précision, la concentration odorante d’une atmosphère. Pour la détection gazeuse, le choix s’est porté sur un dispositif basé sur des capteurs de gaz commerciaux à base d’oxyde métalliques (nez électronique), couplé à un étalonnage préalable sous concentrations fixes d’huile essentielle de pin. Un équipement expérimental a été mis au point afin d’étudier, de caractériser et surtout d’optimiser les performances de ce dispositif. De premières études ont permis de classer les capteurs selon la rapidité, la sensibilité et le niveau de dérives, et d’optimiser la procédure de mesures : cycle d’exposition gazeuse de 75sec suivie de 350sec de régénération des capteurs sous air pur. Une caractérisation a été menée à partir de mesures systématiques réalisées sous diverses variations (croissantes, décroissantes, aléatoires) de concentration, prenant ainsi en compte toutes les formes possibles de dérive. Afin de réduire les erreurs dues à ces dérives, un prétraitement original a été initié en normalisant les signaux de réponse, grâce à la réponse de chaque capteur prise en fin de régénération. Deux descripteurs normalisés (conductance moyenne et maximale) ainsi que la valeur maximale de la courbe dérivée de chaque réponse temporelle ont été définis pour chaque capteur. L’exploitation de la base de données constituée à l’aide de ces trois paramètres par des méthodes de classification ACP et AFD montrent la difficulté de différencier les hautes concentrations, même en éliminant les deux capteurs les moins performants. Une toute nouvelle approche est alors proposée en combinant la technique de correction orthogonale des signaux (OSC), conduisant à la suppression des informations non pertinentes de la base de données, suivie d’une régression des moindres carrés partiels (PLS) adaptée aux problèmes de multi-colinéarité et au nombre élevé de variables. L’association de ces méthodes permet une meilleure discrimination des fortes concentrations, tout en garantissant le maximum de stabilité au modèle de régression et la précision d’estimation requise des concentrations gazeuses. Enfin, cette discrimination a été optimisée en remplaçant les trois paramètres représentatifs précédents par l’intégralité des signaux de réponse, le temps de calcul nécessaire restant modique. Une très bonne évaluation de la concentration gazeuse dans toute la gamme utilisée a alors été obtenue. Nous avons ainsi élaboré un modèle robuste et précis pour l’étalonnage de notre système, grâce à des méthodes d’analyse et de prétraitement judicieux, qui permet d’entreprendre la réalisation du prototype
ControlThis work contributes to the design of a gas diffusion-sensing system controlling in real time the essential oil concentration in a confined atmosphere. The objective is to create reproducible exposure conditions of olfactory stimuli on living beings to test their neurosensory impacts. The main constraint is to measure with good accuracy and rapidity the odor concentration of a global atmosphere. We decided to use a gaseous detection device (electronic nose) based on commercial resistive metal oxide sensors coupled to a prior learning at fixed concentrations of pine essential oil. Experimental equipment was first developed in order to study, characterize and especially optimize the device performances to be achieved. Initially, the study of time gas sensor responses was used to optimize working measurement conditions: cycle of 75s gas exposure phase, followed by 350s pure air regeneration phase. First results allowed the classification of our sensors in terms of rapidity, sensitivity and drift levels. A systematic characterization measurement was made under various concentration variations: increasing, decreasing or random ones taking account of all possible forms of response drifts. To reduce errors due to the drifts, an original pretreatment was initiated by normalizing each sensor response value in relation with its corresponding conductance value at the end of regeneration phase. Two normalized features and also the maximum value of the derivative curve were defined for each time sensor response. The analysis by ACP and AFD classification methods of the database created using these three features show the difficulty in differentiating high concentrations, even by eliminating the two least efficient sensors. So, a completely new approach was proposed by combining the orthogonal signal correction technique (OSC) allowing to remove irrelevant information, and the Partial Linear Square regression method PLS, adapted in case of multi-collinearity and a large number of parameters. Using these two methods yields a much better discrimination of the high concentrations, maintaining the concentration prediction accuracy with a maximum stability of the regression model. Finally, the concentration prediction has been optimized by substituting representative parameters with the full response signal, the calculation time remaining low. A very good assessment of the gas concentration in all the used range was obtained. So we have developed a robust and accurate model for the calibration of our system thanks to a combination of original processing and analysis methods, allowing to achieve a reliable detection-diffusion prototype
Styles APA, Harvard, Vancouver, ISO, etc.
36

Bonneau, Stéphanie. « Dynamique d'interaction de tétrapyrroles avec des membranes et des lipoprotéines : conséquences sur la localisation cellulaire ». Paris 6, 2003. https://tel.archives-ouvertes.fr/tel-00193125.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
37

Aassine, Saadia. « Couplage de type prediction - correction d'un automate cellulaire et d'un modele localise pour un probleme de dynamique de vegetation ». Perpignan, 1999. http://www.theses.fr/1999PERP0340.

Texte intégral
Résumé :
Ce travail constitue une nouvelle approche dans la resolution numerique des phenomenes spatio-temporels. Cette approche est basee sur un couplage de type prediction - correction d'un modele localise et d'un automate cellulaire pour un probleme de dynamique de vegetation. Le modele localise, se referant a l'approche de monteith, decrit la croissance de la vegetation dans son ecosysteme. Ce modele est construit et simule a l'aide du progiciel stella ii, concu pour la modelisation temporelle des systemes complexes a base d'outils graphiques. Afin d'introduire le parametre espace dans le modele global, nous avons choisi les automates cellulaires. L'automate cellulaire est une nouvelle approche, offrant un cadre novateur permettant de repenser la dynamique des systemes. Il constitue un modele discret, permettant d'une part d'effectuer des simulations de modeles complexes sur la base de regles simples, et montrant d'autre part, comment les interactions locales et individuelles determinent l'apparition de comportements complexes au niveau global du systeme. La mise en uvre de ce couplage est realisee a l'aide d'un code executable cree sous visual c++. Ce code executable permet d'obtenir les evolutions des couches biologiques et geographiques de la vegetation consideree.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Hozé, Nathanaël. « Modélisation et méthodes d'analyse de la diffusion et agrégation au niveau moléculaire pour l'organisation sous-cellulaire ». Paris 6, 2013. http://www.theses.fr/2013PA066695.

Texte intégral
Résumé :
Dans cette thèse, nous étudions la diffusion et l'agrégation dans le contexte de la biologie cellulaire. Notre objectif est d'obtenir des lois physiques de plusieurs processus tels que l'assemblage des particules ou des lois de la diffusion dans des microdomaines, afin de déterminer comment les processus sous-cellulaires sont construits à partir de l'organisation moléculaire élémentaire. Ce changement d'échelle peut être formulé et analysé à l'aide de plusieurs outils tels que les équations aux dérivées partielles, la physique statistique, les processus stochastiques et des simulations numériques. Nous présentons ici différentes méthodes et nous les appliquons à certaines questions en biophysique, en neurobiologie et en biologie cellulaire, en particulier au trafic de récepteurs sur la membrane cellulaire, l'organisation nucléaire et la dynamique de l'assemblage viral. Dans la première partie, pour obtenir une estimation du coefficient de diffusion effectif d'une particule brownienne se déplaçant entre des obstacles, nous calculons le temps moyen pour qu'une particule brownienne arrive à une petite ouverture définie comme la région de distance minimale entre deux disques de même rayon. La méthode repose sur la transformation conforme de Möbius appliquée à l'équation de Laplace. Ce résultat nous permet de développer des méthodes statistiques pour résoudre un problème d'ingénierie inverse qui consiste à retrouver les paramètres d'une équation stochastique à partir d'un grand nombre de trajectoires courtes. En appliquant cette méthode aux données de superrésolution du trafic des récepteurs, nous identifions un nouveau type d'organisation moléculaire, décrit par des puits de potentiel (partie déterministe de l'équation stochastique). Nous répondons ensuite à une autre question: comment reconstruire des surfaces à partir d'un large nombre de trajectoires stochastiques courtes? En utilisant la formule d'Ito, nous dérivons une nouvelle classe d'équations aux dérivées partielles non linéaires qui nous permettent de reconstruire la surface. Cette partie est illustrée par des exemples numériques. Dans la deuxième partie, nous nous concentrons sur un aspect de l'organisation nucléaire et notre objectif est de modéliser et d'analyser la dynamique des télomères (extrémités des chromosomes) dans le noyau cellulaire. Des résultats expérimentaux ont montré que les télomères de la levure s'organisent dynamiquement en un petit nombre de paquets par un mécanisme qui reste encore largement incompris. Nous utilisons une approche inspirée de la physique statistique pour étudier la dynamique des 32 télomères, que nous modélisons comme des particules browniennes indépendantes qui peuvent aussi former des agrégats. Nous estimons le nombre de paquets et le nombre des télomères par paquet en utilisant des formules exactes dérivées de notre modèle. Nous identifions les paramètres pertinents en comparant nos résultats avec les données expérimentales. En particulier, nous montrons qu'un seul paramètre, le ratio du taux d'association sur le taux de dissociation des télomères, permet d'expliquer la distribution des paquets de télomères dans différentes conditions. Enfin, nous développons un modèle empirique pour étudier l'agrégation de particules à un site de nucléation unique. La distribution des particules en petits paquets avant leur arrivée est la clé pour comprendre la cinétique de l'agrégation. Nous obtenons ces lois en utilisant d'abord un modèle déterministe, puis un processus de sauts stochastique, ce qui nous permet d'obtenir une expression explicite pour le temps moyen de formation du site de nucléation. Nous discutons certaines applications à la formation de la capside du VIH
In the present PhD thesis, we study diffusion and aggregation in the context of cellular biology. Our goal is to obtain physical laws of several processes such as particle assembly or laws of diffusion in microdomains, in order to determine how subcellular processes are constructed from elementary molecular organization. This change of scale can be formulated and analyzed using several tools such as partial differential equations, statistical physics, stochastic processes and numerical simulations. We present here several methods and we apply them to study questions in biophysics, neurobiology and cellular biology. Examples are receptors trafficking on cellular membrane, nuclear organization and the dynamics of viral assembly. In the first part, to obtain an estimation of the effective diffusion coefficient of a Brownian particle moving in between obstacles, we compute the mean time for a Brownian particle to arrive to a narrow opening defined as the region of minimal distance between two disks of identical radius. The method relies on M\"obius conformal transformation applied to the Laplace equation. Using this result, we develop statistical methods to solve a reverse engineering problem which consists in recovering parameters of a stochastic equation from a large number of short trajectories. Applying this method to superresolution data of receptor trafficking, we identify novel molecular organization, which are described as potential wells (deterministic part of the SDE). We next solve a different question: how is it possible to reconstruct surfaces from a large sample of short stochastic trajectories? By using Ito's formula, we derive a new class of nonlinear partial differential equations that allow us to reconstruct the surface. This section is illustrated with numerical examples. In the second part, we focus on an aspect of nuclear organization and our goal is to model and analyze telomere dynamics (ends of the chromosomes) in the cell nucleus. Early experimental findings reveal that yeast telomeres organize dynamically in a small numbers of clusters, yet this process remains poorly understood. Thus, we use a statistical physics approach to study the joint dynamics of the 32 telomeres, that we model as independent Brownian particles that can also form aggregates. We estimate the number of clusters and the number of telomeres per cluster using exact formula that we derive from our model. We identify the relevant parameters by comparing our results with experimental data. In particular, we show that a single parameter - the ratio of the association to the dissociation rate - is sufficient to account for telomere clustering in various conditions. Finally, we develop an empirical model to study particle aggregation to a single nucleation site. The distribution of particles in small clusters before arriving is a key ingredient to derive kinetic laws. We derive these laws using first a deterministic model and then a stochastic jump process, which allows us to obtain also an explicit expression for the mean time that the nucleation site is filled. We discuss some applications to HIV capsid formation
Styles APA, Harvard, Vancouver, ISO, etc.
39

Schram, Vincent. « Approche par la diffusion translationnelle de la structuration latérale de milieux modèles membranaires ». Toulouse 3, 1993. http://www.theses.fr/1993TOU30186.

Texte intégral
Résumé :
Afin de clarifier les relations pouvant exister entre le coefficient de diffusion translationnelle mesure par la technique du retour de fluorescence. Apres photoaveuglement (frap) et des grandeurs d'organisation laterale d'une membrane, des retours de fluorescence ont ete simules dans une grille a maille triangulaire encombree d'obstacles en taille et proportion surfacique variable. Une equation phenomenologique reliant le coefficient de diffusion a la taille et a la proportion surfacique des obstacles a ete etablie. La transposition de cette relation a des mesures experimentales de frap realisees sur des multicouches de phosphatidylcholine de jaune d'oeuf incorporant la proteine bacteriorhodopsine de halobacterium halobium suggere que celle-ci est entouree d'un annulus de lipides a mobilite restreinte d'une longueur de coherence d'environ 17 angstroms. Des mesures de frap ont egalement ete realisees dans des melanges binaires de phosphatidylcholines de synthese dans la zone de separation laterale de phase avec un nouveau type de modele membranaire, la bicouche adsorbee. Dans un melange equimoleculaire de dilauroyl- et dipalmitoyl-phosphatidylcholine, l'application de la relation phenomenologique precedente conduit a une taille des domaines de phase gel d'environ 200 molecules, invariante avec la temperature
Styles APA, Harvard, Vancouver, ISO, etc.
40

Dib, Carla. « développement d'approches de correction des myoblastes issus de patients atteints de la dystrophie facio-scapulo-humérale ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS224.

Texte intégral
Résumé :
La dystrophie Facio-Scapulo-Humérale est caractérisée par une faiblesse musculaire progressive et asymétrique. Elle affecte principalement les muscles faciaux, scapulaires et huméraux. L’association de plusieurs évènements épigénétiques à trois facteurs génétiques de la région subtélomérique du chromosome 4 résulte en un changement dans l’organisation chromatinienne la rendant permissive à l’expression aberrante des gènes de la région 4q35. Les myoblastes DFSH présentent des défauts de différenciation in vitro et des dérégulations dans des voies majeures comme celle de la réponse cellulaire au stress oxydant et de la différenciation myogénique. L’enjeu génétique et épigénétique complexe dans la DFSH et les limitations de la thérapie cellulaire dans son contexte laissent la DFSH jusque-là incurable. Toutefois les avancées dans les thérapies cellulaires et génétiques des myopathies ouvrent des horizons pour de futures applications dans le cadre de la DFSH.Le travail de thèse s’articule autour de trois thématiques. Premièrement, nous démontrons la faisabilité de la correction phénotypique et fonctionnelle des myotubes DFSH in vitro par la fusion de 50% de myoblastes normaux avec des myoblastes DFSH. Ensuite, nous évaluons deux approches d’édition génomique. Dans la première approche, nous ciblons le site de rattachement du chromosome 4 à la matrice nucléaire, FR-MAR avec la protéine CTCF à l’aide du système CRISPR/dCas9 en vue du rétablissement de l’organisation chromatinienne et de la fonction isolatrice de FR-MAR. Dans la deuxième, nous échangeons par translocation les régions homologues 4q35 et 10q26 dans le but de corriger les myoblastes DFSH comme les trois facteurs génétiques du locus 4q35 ne sont pathogéniques que sur un fond génétique lié au chromosome 4. Finalement, nous étudions le rôle du stress oxydant dans la DFSH
Facio-Scapulo-Humeral dystrophy is characterized by progressive and asymmetrical muscle weakness. It mainly affects the facial, scapular and humeral muscles. The association of several epigenetic events with three genetic factors of the subtelomeric region of chromosome 4 results in a chromatin organization modification making it permissive to the aberrant expression of genes in the 4q35 region. FSHD myoblasts exhibit differentiation defects in vitro and dysregulations in major pathways such as the cellular response to oxidative stress and myogenic differentiation. The limitations of cell therapy and the complex genetic and epigenetic interplay in FSHD leave it, till now, incurable. However advances in cellular and genetic therapies of myopathies open up new horizons for future applications in the FSHD context. The thesis work is structured around three themes. First, we demonstrate the feasibility of phenotypic and functional correction of FSHD myotubes in vitro by fusing 50% of normal myoblasts with FSHD myoblasts. Next, we evaluate two genomic editing approaches. In the first one, we target the site of attachment of chromosome 4 to the nuclear matrix, FR-MAR with the CTCF protein using the CRISPR / dCas9 system for the purpose of restoring the chromatin organization and the insulating function of FR-MAR. In the second one, we exchange the homologous regions 4q35 and 10q26 by translocation in order to correct the FSHD myoblasts as the three genetic factors of the 4q35 locus are pathogenic only on a genetic background linked to chromosome 4. Finally, we study the role of the oxidative stress in the FSHD
Styles APA, Harvard, Vancouver, ISO, etc.
41

Sarr, Fatima Seydou. « Modélisation du mécanisme de diffusion d'une série de statines à travers la membrane cellulaire : approche biochromatographique et thermodynamique ». Besançon, 2010. http://www.theses.fr/2010BESA0018.

Texte intégral
Résumé :
La modélisation du passage membranaire des xénobiotiques tels que les statines est une nécessité afin d'évaluer leur biodisponibilité et leur pharmacocinétique. Elle se fait grâce à trois types de phases stationnaires remplissant une colonne chromatographique : une membrane artificielle immobilisée (MAI) pour étudier la diffusion passive, une phase stationnaire Oatp2 (Organic anion transporting polypeptide 2) et des phases stationnaires membranaires cellulaires (CMC) constituées d'extraits membranaires d'hépatocytes de rat surexprimés ou non en Oatp2 pour étudier la diffusion facilitée. Ces phases permettront d'analyser et de mieux comprendre les processus physico-chimiques impliqués dans le mécanisme de diffusion des xénobiotiques. Les résultats obtenus ont montré que les interactions gouvernant l'association des statines avec les biomembranes ou les transporteurs membranaires sont de type Van der Waals, hydrogènes et électrostatiques. L'effet hydrophobe joue un rôle majeur sur cette association. Nous avons également montré que le magnésium augmente la diffusion passive des statines mais diminue par contre leur diffusion facilitée. La phase stationnaire Oatp2 modélise la diffusion des statines de manière optimale et similaire à la CMC. Cette nouvelle phase stationnaire Oatp2 plus simple à mettre au point expérimentalement, couplée à une colonne d'analyse séparative classique (type colonne C18) et à un spectre de masse (i. E. , CLHP-Oapt2/CLHP-C18/SM) devrait permettre de faire des études de type " screening " pour trouver et développer des inhibiteurs nouveaux et spécifiques pour chaque membre de la sous-famille des Oatps
The xenobiotic cell membrane passage studies such as statins is needed to assess their bioavailability and pharmacokinetics. It is done through three types of stationary phases filling a chromatographic column : an Immobilized Artificial Membrane (IAM) to study passive diffusion, an Oatp2 stationnary phase (Organic anion transporting polypeptide 2) and cell membrane stationary phases (CMSP) (i. E. Constituted with extracts membrane of rat hepatocytes Oatp2 overexpressed or not to study facilitated diffusion). These studies will analyze and better understand the physical and chemical processes involved in the xenobiotic diffusion mechanism. The results showed that the interactions governing the statin association with biological membranes or transporters are Van der Waals, hydrogen and electrostatic bonds. The hydrophobic effect plays a major role in this association. We have also shown that magnesium increases the station passive diffusion but decreases their facilitated diffusion. The Oatp2 stationary phase models the statin diffusion optimal and similar to the CMC. This new Oatp2 stationary phase easier to develop experimentally, coupled with an analytical column separate classic (type C18) and a mass spectrum (i. E. , CLHP-Oapt2/CLHP-C18/SM) should serve to make studies such as " screening " to find and develop new and specific inhibitors for each member of the Oatp subfamily
Styles APA, Harvard, Vancouver, ISO, etc.
42

Le, Bars Anne-Lise. « Développements méthodologiques pour l’IRM de diffusion cardiaque ». Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0089.

Texte intégral
Résumé :
L’imagerie par résonance magnétique de diffusion est une technique qui permet d’obtenir des informations sur la microarchitecture des tissus biologiques. La connaissance de l’organisation des fibres myocardiques peut permettre d’améliorer la compréhension de l’électrophysiologie cardiaque du patient et, par conséquent, du traitement des arythmies complexes telles que les tachycardies ventriculaires. Néanmoins, des améliorations restent nécessaires pour appliquer cette technique dans les organes en mouvements, notamment en raison des artéfacts créés par les déplacements. Les mouvements macroscopiques, de l’ordre du millimètre, sont principalement liés à la respiration ou au battement cardiaque tandis que la quantification de la diffusion repose sur la caractérisation des mouvements microscopiques. Des séquences compensées en mouvement utilisent des gradients d’encodage de diffusion spécifiques (compensation en vitesse ou en accélération). Cependant ces séquences sont très sensibles à la phase d’acquisition dans le cycle cardiaque et ne permettent l’acquisition que d’un nombre limité de coupes en raison du long temps d’acquisition nécessaire au recueil des données. Dans ce contexte, la première partie du travail de recherche a consisté à adapter la synchronisation avec le mouvement cardiaque du patient en utilisant une séquence sensibilisée à la vitesse de ce mouvement en temps-réel (RTPC). Ainsi, la séquence RTPC apporte une connaissance sur la variabilité des phases cardiaques. En reliant la variabilité de la mesure de diffusion au mouvement cardiaque mesuré par la séquence RTPC, nous avons montré la possibilité d’utiliser cette séquence pour optimiser l’acquisition de diffusion. Le traitement de la séquence RTPC a été adaptée en vue d’afficher la reconstruction en temps réel sur la console IRM et ainsi de faciliter son emploi. L’autre problématique de ce travail de recherche concerne l’obtention d’une information sur l’agencement tri-dimensionnel des fibres myocardiques, et ce, avec une couverture de l’entièreté du ventricule gauche. En effet, cette couverture intégrale est nécessaire à la simulation de la propagation de l’influx électrique cardiaque. Une technique de super-résolution a été utilisée comme solution à l’augmentation de la résolution spatiale dans le sens de la coupe, sans coût majeur au niveau du rapport signal sur bruit, diminuant ainsi le temps d’acquisition. Des simulations et des acquisitions sur fantôme ont permis de montrer que l’augmentation de la résolution permet d’améliorer l’estimation de l’orientation de la direction principale de diffusion. Cela est particulièrement utile lorsque cette orientation change significativement dans le sens de la coupe, en relation avec la géométrie globale du cœur. Une étude sur volontaires sains a ensuite été réalisée dans le but de montrer l’applicabilité in-vivo de la technique de super-résolution
Diffusion magnetic resonance imaging (MRI) is a non-invasive imaging modality that allows the assessment of microarchitecture in biological tissues. Knowing the arrangement of myocardial fiber is important to fully understand cardiac electrophysiology in patients, and therefore to improve the treatment of complex arrythmia such as ventricular tachycardia. Nevertheless, efforts have to be made to apply diffusion MRI to moving organs because of the various artefacts created by displacements. Macroscopic motion, including cardiac contraction and breathing is in the range of a few millimeters, whereas diffusion motion is at the micrometer scale. To deal with cardiac motion, a cardiac-triggered diffusion-weighted spin-echo echo planar imaging sequence can be used with first and second order motion-compensated diffusion-encoding gradients. However, these sequences are very sensitive to the phase of the cardiac cycle chosen to perform the acquisition. Moreover, the ventricle coverage is often limited to a few slices due to the long scan time required to have sufficient SNR. Considering these limitations, the thesis has been separated in two parts with the following objectives: to implement a subject-specific cardiac synchronization and to set up an efficient protocol that performs a full coverage of the left-ventricle with isotropic resolution. The subject-specific cardiac synchronisation has been implemented using a real-time phase contrast (RTPC) sequence which is sensitive to motion. RTPC sequence provides knowledge on the variability in duration of cardiac phases. By modelling the cardiac variability, it was possible to study the quality of the diffusion measurement as a function of the cardiac phase. In regards of the results, the sequence can be valuable to optimize and/or adapt the trigger delay to target the diastasis. This phase is the quiescent phase of the cardiac cycle but also the most variable as a function of heart-rate. The online reconstruction of RTPC sequence has been successfully implemented to facilitate the deployment of the sequence to adapt the trigger delay for future clinical research, possibly with other applications. The focus of the second part of the work was to retrieve tri-dimensional information about myocardial fiber organisation with a full coverage of left ventricle. This full coverage is mandatory to simulate cardiac electrophysiology. A bulk motion-corrected super-resolution approach to cDTI has been proposed to improve spatial resolution without significant cost on SNR. Therefore, the total scan time can be reduced by this method. Evaluation in a numerical heart phantom and in a physical helicoidal phantom, have shown the improvement of spatial resolution and diffusion tensor estimation in a general case (except when the underlying geometry is highly favorable to low resolution images). This is of particular interest when there are significant changes in orientation of principal diffusion direction along the slice direction, according to the global geometry of the heart. The feasibility of super-resolution in-vivo cDTI on healthy volunteers has shown the applicability of the approach
Styles APA, Harvard, Vancouver, ISO, etc.
43

Ahmadou, Mohamed Diaa. « Contribution au développement d'un dispositif robuste de détection-diffusion d'huiles essentielles à concentration contrôlée ». Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0187.

Texte intégral
Résumé :
Ce travail contribue à la conception d’un système de détection-diffusion contrôlant en temps réel la concentration en huile essentielle dans un espace confiné. L’objectif est d’assurer la reproductibilité des conditions d’exposition aux stimuli olfactifs de sujets vivants, afin de tester les impacts neurosensoriels provoqués. La principale contrainte est de pouvoir mesurer, avec de bonnes qualités de rapidité et précision, la concentration odorante d’une atmosphère. Pour la détection gazeuse, le choix s’est porté sur un dispositif basé sur des capteurs de gaz commerciaux à base d’oxyde métalliques (nez électronique), couplé à un étalonnage préalable sous concentrations fixes d’huile essentielle de pin. Un équipement expérimental a été mis au point afin d’étudier, de caractériser et surtout d’optimiser les performances de ce dispositif. De premières études ont permis de classer les capteurs selon la rapidité, la sensibilité et le niveau de dérives, et d’optimiser la procédure de mesures : cycle d’exposition gazeuse de 75sec suivie de 350sec de régénération des capteurs sous air pur. Une caractérisation a été menée à partir de mesures systématiques réalisées sous diverses variations (croissantes, décroissantes, aléatoires) de concentration, prenant ainsi en compte toutes les formes possibles de dérive. Afin de réduire les erreurs dues à ces dérives, un prétraitement original a été initié en normalisant les signaux de réponse, grâce à la réponse de chaque capteur prise en fin de régénération. Deux descripteurs normalisés (conductance moyenne et maximale) ainsi que la valeur maximale de la courbe dérivée de chaque réponse temporelle ont été définis pour chaque capteur. L’exploitation de la base de données constituée à l’aide de ces trois paramètres par des méthodes de classification ACP et AFD montrent la difficulté de différencier les hautes concentrations, même en éliminant les deux capteurs les moins performants. Une toute nouvelle approche est alors proposée en combinant la technique de correction orthogonale des signaux (OSC), conduisant à la suppression des informations non pertinentes de la base de données, suivie d’une régression des moindres carrés partiels (PLS) adaptée aux problèmes de multi-colinéarité et au nombre élevé de variables. L’association de ces méthodes permet une meilleure discrimination des fortes concentrations, tout en garantissant le maximum de stabilité au modèle de régression et la précision d’estimation requise des concentrations gazeuses. Enfin, cette discrimination a été optimisée en remplaçant les trois paramètres représentatifs précédents par l’intégralité des signaux de réponse, le temps de calcul nécessaire restant modique. Une très bonne évaluation de la concentration gazeuse dans toute la gamme utilisée a alors été obtenue. Nous avons ainsi élaboré un modèle robuste et précis pour l’étalonnage de notre système, grâce à des méthodes d’analyse et de prétraitement judicieux, qui permet d’entreprendre la réalisation du prototype
ControlThis work contributes to the design of a gas diffusion-sensing system controlling in real time the essential oil concentration in a confined atmosphere. The objective is to create reproducible exposure conditions of olfactory stimuli on living beings to test their neurosensory impacts. The main constraint is to measure with good accuracy and rapidity the odor concentration of a global atmosphere. We decided to use a gaseous detection device (electronic nose) based on commercial resistive metal oxide sensors coupled to a prior learning at fixed concentrations of pine essential oil. Experimental equipment was first developed in order to study, characterize and especially optimize the device performances to be achieved. Initially, the study of time gas sensor responses was used to optimize working measurement conditions: cycle of 75s gas exposure phase, followed by 350s pure air regeneration phase. First results allowed the classification of our sensors in terms of rapidity, sensitivity and drift levels. A systematic characterization measurement was made under various concentration variations: increasing, decreasing or random ones taking account of all possible forms of response drifts. To reduce errors due to the drifts, an original pretreatment was initiated by normalizing each sensor response value in relation with its corresponding conductance value at the end of regeneration phase. Two normalized features and also the maximum value of the derivative curve were defined for each time sensor response. The analysis by ACP and AFD classification methods of the database created using these three features show the difficulty in differentiating high concentrations, even by eliminating the two least efficient sensors. So, a completely new approach was proposed by combining the orthogonal signal correction technique (OSC) allowing to remove irrelevant information, and the Partial Linear Square regression method PLS, adapted in case of multi-collinearity and a large number of parameters. Using these two methods yields a much better discrimination of the high concentrations, maintaining the concentration prediction accuracy with a maximum stability of the regression model. Finally, the concentration prediction has been optimized by substituting representative parameters with the full response signal, the calculation time remaining low. A very good assessment of the gas concentration in all the used range was obtained. So we have developed a robust and accurate model for the calibration of our system thanks to a combination of original processing and analysis methods, allowing to achieve a reliable detection-diffusion prototype
Styles APA, Harvard, Vancouver, ISO, etc.
44

Seigneur, Alain. « Cytométrie en flux : conception d'un appareil et validation expérimentale ». Paris 11, 1987. http://www.theses.fr/1987PA112025.

Texte intégral
Résumé :
La cytométrie en flux est une technique qui permet l'analyse et le tri de cellules biologiques vivantes à des cadences pouvant atteindre cinq à dix mille évènements par seconde. Après un rapide historique, nous présentons dans ce mémoire la conception et le développement d'un appareil "haut-de-gamme" ainsi que les résultats expérimentaux. La première partie expose les principes physiques permettant l'étude morphologique et fonctionnelle des cellules ou des constituants cellulaires. Les paramètres accessibles sont la mesure électrique du volume, la diffusion de la e et la fluorescence. Le principe du centrage hydrodynamique y est également présenté, ainsi que le fractionnement d'un jet d'eau en gouttelettes permettant le tri électrostatique des particules. Dans la deuxième partie, nous décrivons l'appareil que nous avons conçu au Commissariat à l'Energie Atomique (C. E. A. ) et industrialisé par la Société ODAM (ATC 3000). La dernière partie de cette thèse est consacrée à l'évaluation des performances de ce cytomètre. Nous analysons la différence entre les deux méthodes de mesure de la taille volume par la méthode électrique comparé à la diffusion aux petits angles. Nous montrons que notre optique originale a une sensibilité élevée pour la mesure·de la fluorescence des ondes biologiques : le bruit obtenu est équivalent à six cents molécules d'isothiocynate de fluorescéine (FITC). Nous analysons également les performances du tri et prouvons qu'il respecte la viabilité cellulaire
The flow cytometry techniques allow the analysis and sorting of living biologic cells at rates above five for then thousand events per second. After a short review, we present in this report the design and development of a "high-tech" apparatus intended for research laboratories and the experimental results. The first part deals with the physical principles allowing morphologic and functional analysis of cells or cellular components. The measured parameters are as follows: electrical resistance pulse sizing, light scattering and fluorescence. Hydrodynamic centering is used, and in the same way, the division of a water-stream into droplets leading to electrostatic sorting of particules. The second part deals with the apparatus design at the "Commissariat à l'Energie Atomique" (C. E. A. ) and industrialised by "ODAM" (ATC 3000). The last part of this thesis work is the performance evaluations of this cytometer. The difference between the two size measurement methods are analyzed: electrical resistance pulse sizing versus small-angle light scattering. By an original optics design, high sensitivity has been reached in the fluorescence measurement: the equivalent noise corresponds to six hundred fluorescein isothiocyanate (FITC) molecules. The sorting performances have also been analyzed and the cell viability proven
Styles APA, Harvard, Vancouver, ISO, etc.
45

Dos, Santos Ferreira Jorge. « Identification des mécanismes en boucle fermée dans le comportement cellulaire ». Compiègne, 2008. http://www.theses.fr/2008COMP1734.

Texte intégral
Résumé :
Ce travail est concentré sur le développement et l'application de techniques pour l'analyse de réseaux biochimiques. L'objectif est d'utiliser les modifications globales observées dans les systèmes vivants pour comprendre les interactions existantes au niveau des points clés de ces voies métaboliques. Nous avons travaillé sur la détermination des interactions essentielles dans le processus d'autorégulation qui décrit le cycle cellulaire d'œufs de grenouille. Les résultats nous ont permis de faire une évaluation des effets possibles de chaque protéine sur la stabilité du réseau biochimique en question. La méthodologie a été appliquée aussi pour l'analyse dynamique d'un modèle de l'activité électrique de cellules utérines. Nous présentons aussi un modèle développé pour un système enzymatique de diffusion-réaction dont l'objectif est d'analyser le comportement dynamique de trois espèces chimiques différentes, ses propriétés cinétiques enzymatiques et l'existence de comportements sophistiqués résultants de l'activité catalytique induite par l'immobilisation d'une enzyme dans une membrane artificielle. Le modèle est extrapolé à un système distribué afin d'analyser son comportement spatio-temporel. Les résultats nous permettent d'évaluer le profil de concentration de chaque espèce en fonction de l'espace et du temps simultanément, ce qui n'est pas directement observable par les biochimistes. Nous concluons avec une étude d'un modèle développé pour le métabolisme des hexoses-phosphate de la bactérie Sinorhizobium meliloti. Un algorithme a été proposé pour l'estimation des flux intracellulaires
The aim of this work is to try to use observed global changes to understand interactions between individual nodes inside biochemical networks. We have worked on the determination of the essential interactions in the auto regulatory process that describes the cell cycle of Xenopus frog eggs. The results make possible an assessment of the effect of each protein on the biochemical network stability. The technique was applied also to a dynamical analysis of a uterine cell electrical activity model with view to study the impact of physiological parameters on the response of the model and identify the main subsystems generating the electrical activity. We also present a model developed for understanding an enzymatic diffusion-reaction system. The objective is to analyze the dynamic behavior of three different chemical species, the modification of enzymatic kinetic properties and the existence of sophisticated behaviors resulting of the catalytic activity induced by immobilization of Acetylcholinesterase enzyme into an artificial membrane enzymatically inactive. The results make possible the characterization and prediction of system behavior as well as a qualitative analysis of the system stability via bifurcation diagrams. The model is then extrapolated to a distributed system in order to analyze its spatio-temporal behavior. Numerical results make possible the assessment of the concentration profile of the chemical species on space and time, what is not directly observable by biochemists. Finally, we study a model developed for a network of Sinorhizobium meliloti bacterium and propose an algorithm for intracellular fluxes estimation
Styles APA, Harvard, Vancouver, ISO, etc.
46

Taljan, Kyle Andrew Ignatius. « Investigations of Anatomical Connectivity in the Internal Capsule of Macaques with Diffusion Magnetic Resonance Imaging ». Cleveland State University / OhioLINK, 2011. http://rave.ohiolink.edu/etdc/view?acc_num=csu1311093061.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
47

Amorino, Chiara. « Bias correction for drift and volatility estimation of jump diffusion processes and non - parametric adaptive estimation of the invariant measure ». Thesis, université Paris-Saclay, 2020. https://www.biblio.univ-evry.fr/theses/2020/2020UPASE006.pdf.

Texte intégral
Résumé :
Le sujet de la thèse est l’estimation paramétrique et non-paramétriquedans des modèles de processus à sauts. La thèse est constituée de 3 parties qui regroupent 4 travaux.La première partie, qui est composée de deux chapitres, traite del'estimation des paramètres de dérive et volatilité par des méthodes de contraste depuis des observations discrètes, avec pour objectif principal de minimiser les conditions sur le pas d'observation, afin que celui ci puisse par exemple aller arbitrairement lentement vers 0.La seconde partie de la thèse concerne des développements asymptotiques, et correction de biais, pour l'estimation de la volatilité intégrée.La troisième partie de la thèse, concerne l'estimation adaptative de la mesure stationnaire pour des processus à saut
The thesis deal with the parametric and non-parametric inference in jump process models.It consists of 3 parts which gather 4 chapters.The first part, which contains 2 chapters, focuses on the estimation of the drift and volatility parameters via some contrast function methods starting from a discretely observed process.The main goal is to minimise the conditions on the discretization step so that it can go to $0$ arbitrarily slowly.The second part of the thesis regards some asymptotic developments, and bias correction, for the estimation of the integrated volatility.The third part of the thesis is about the adaptive estimation of the invariant measure for jump processes
Styles APA, Harvard, Vancouver, ISO, etc.
48

Bouchard-Gilanton, Véronique. « Modélisation et correction de l'effet Compton dans la reconstruction d'images tomoscintigraphiques ». Grenoble 1, 1997. http://www.theses.fr/1997GRE10003.

Texte intégral
Résumé :
L'imagerie nucleaire apporte des informations fonctionnelles, complementaires des informations anatomiques provenant d'images scanner, irm ou echographiques. Afin d'ameliorer et de faciliter le diagnostic, il semble important d'avoir acces a des images de haute resolution, et donc d'ameliorer la mauvaise resolution des images tomoscintigraphiques due principalement a l'attenuation et la diffusion. Nous nous interessons plus particulierement a l'effet compton, phenomene physique majoritairement perturbateur et diffusant. Differentes techniques de correction de cette diffusion ont d'ores et deja ete proposees, mais la plupart d'entre elles ne tiennent pas compte du fait que l'effet compton depend de la densite electronique du milieu. Grace a la mise en correspondance images anatomiques / images fonctionnelles developpee au laboratoire, nous avons acces, en tout point de la zone a reconstruire, a cette information de densite. Nous pouvons donc modeliser physiquement le processus d'acquisition d'une image, depuis l'injection du radiopharmaceutique jusqu'a la detection par la gamma-camera. Apres avoir donne quelques rappels sur l'imagerie spect et quelques techniques de reconstruction usuelles, nous presentons une modelisation physique de l'effet compton grace a la formule de klein et nishina, et l'importance de sa prise en compte dans la reconstruction. Nous rappelons les principales methodes de correction actuellement developpees pour pallier a ce phenomene, avant d'introduire notre propre modelisation. Une etude rapide de sa complexite algorithmique nous amene a considerer differentes simplifications de notre modele et a paralleliser notre algorithme de modelisation. Enfin, une validation est effectuee sur des simulations et des donnees cliniques.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Caré, Bertrand. « Modèles individu-centrés de l'impact fonctionnel des hétérogénéités de diffusion et de distribution spatiale des protéines de signalisation cellulaire ». Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00858499.

Texte intégral
Résumé :
Les voies de signalisation cellulaires permettent aux cellules de percevoir et d'échanger de l'information sous la forme de signaux chimiques. Un tel signal génère une réponse de la cellule au travers des étapes cruciales de réception et transduction. Différents types de protéines sont organisés dans une cascade de réactions de proche en proche qui relaient le signal de l'extérieur vers l'intérieur de la cellule, notamment au travers de la membrane. Les protéines de signalisation sont restreintes à des compartiments avec des degrés de liberté différents, et diffusent soit dans la membrane cellulaire qui est bidimensionnelle, soit dans le cytoplasme qui est en trois dimensions. De plus, au sein même de ces espaces, leurs distributions respectives sont hétérogènes. Or l'étude de la dynamique des voies de signalisation repose classiquement sur des modèles mathématiques supposant une homogénéité de distribution spatiale. Nous avons développé des modèles de réactions biochimiques entre populitions de molécules oú l'état et la position de chaque molécule sont caractérisés. La diffusion et les interactions entre molécules simulées sont reproduites sur la base de processus stochastiques issus de la biophysique. Ceci permet de recréer des distributions spatiales et des modes de diffusion hétérogènes tels qu'observés en biologie et d'étudier leur effet sur la dynamique de la signalisation en simulation. L'exploitation des modèles a été menée sur les différentes étapes de signalisation. Premièrement, l'étude a porté sur l'interaction entre un ligand dans le milieu extracellulaire et des récepteurs membranaires fixes. Lorsque les récepteurs forment des grappes au lieu d'être répartis uniformément, cela provoque une perte de sensibilité globale de l'étage de réception. Deuxièmement, l'analyse a été poursuivie au niveau de l'étage de transduction entre les récepteurs et un effecteur au niveau de la membrane. Là aussi, une distribution en grappe plutôt qu'uniforme des récepteurs provoque une perte de sensibilité. Enfin, l'étude s'est portée sur un modèle intégrant un mécanisme de diffusion non-homogène en mettant en interaction des récepteurs mobiles et leur substrat membranaire. Lorsque des zones restreintes de diffusion ralentie sont définies sur la membrane, deux effets opposés apparaissent sur la dynamique de transduction : un phénomène d'amplification si le ralentissement affecte les deux protéines, et un phénomène de perte de sensibilité si seuls les récepteurs sont ralentis. Globalement, les résultats illustrent comment les hétérogénéités spatiales modifient les distributions de collision et d'évènements de réaction dans le temps et l'espace à l'échelle microscopique, et comment cela se traduit par un effet sur la dynamique globale de la voie de signalisation à l'échelle macroscopique.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Sune, Albert. « Diffusion transverse de phospholipides dans la membrane plasmique de cellules sanguines : étude par résonance paramagnétique et microscopie électronique ». Montpellier 1, 1987. http://www.theses.fr/1987MON13513.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie