Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Quantification de la graisse.

Dissertationen zum Thema „Quantification de la graisse“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Quantification de la graisse" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Josset, Anne. „Suivi par thermométrie par imagerie par résonance magnétique (IRM) des ablations thermiques dans les tissus mous“. Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAD040.

Der volle Inhalt der Quelle
Annotation:
Les ablations thermiques constituent des alternatives prometteuses aux techniques conventionnelles, notamment pour le traitement de cancers. Le caractère minimalement invasif de ces thérapies contribue à réduire la morbidité et les effets secondaires, transformant ainsi la prise en charge des patients. Toutefois, cela nécessite l’utilisation d’outils appropriés pour un suivi en temps réel des thérapies afin d’attester un traitement efficace et d’assurer la sécurité de la procédure. La thermométrie par Imagerie par Résonance Magnétique (IRM) est reconnue comme le gold standard pour monitorer ces thérapies. En effet, cette technique d’imagerie non invasive permet de cartographier de façon précise les changements de température au sein des tissus aqueux grâce à la méthode de la PRFS (Proton Resonance Frequency Shift). Cependant, l’efficacité de cette méthode, en particulier dans les tissus contenant de la graisse, nécessite une évaluation précise. Dans le cadre de ce travail de thèse, nous avons mis au point une méthode pour quantifier les pics restants de la graisse après différentes méthodes de suppression de la graisse. Cette approche a été caractérisée lors d’expériences in vitro et in vivo. La précision des mesures de thermométrie IRM PRFS a été ensuite mesurée pour plusieurs quantités de gras avec différentes méthodes de suppression. Les résultats montrent que le signal résiduel de la graisse impacte les mesures de température IRM PRFS. Une méthode a alors été proposée pour évaluer les variations de température sans suppression de la graisse à l’aide d’un algorithme de séparation de l’eau et de la graisse. L’approche proposée est compatible avec des séquences rapides, adaptées au temps réel, et permet de mesurer avec précision les variations de température dans les tissus contenant de la graisse
Thermal ablation offers a promising alternative to traditional cancer treatment techniques, particularly due to its minimally invasive feature, which reduces morbidity and side effects. However, it requires the use of appropriate tools for real-time temperature monitoring to attest the effectiveness of the treatment and ensure the safety of the procedure. Magnetic Resonance Imaging (MRI) thermometry is recognized as the gold standard for this purpose, allowing for precise temperature mapping in aqueous tissues using the PRFS (Proton Resonance Frequency Shift) method. Nevertheless, the effectiveness of this method in fat-containing tissues requires careful evaluation. In this thesis, we developed a method to quantify the remaining fat peak signal after various fat suppression methods. This approach was assessed through both in vitro and in vivo experiments. We then evaluated the accuracy of PRFS MRI thermometry with several amounts of fat and different fat suppression methods. Our findings indicate that the residual fat signal impacts PRFS MRI temperature measurements. Consequently, a method was suggested to evaluate temperature variations without fat suppression techniques, using a water/fat separation algorithm. This approach is compatible with real-time sequences and enables accurate measurement of temperature variation in fat-containing tissues
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Roullier, Vincent. „Classification floue et modélisation IRM : application à la quantification de la graisse pour une évaluation optimale des risques pathologiques associés à l'obésité“. Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00348028.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse traitent de l'apport de l'incertitude, de l'imprécision et de l'a priori en traitement d'images médicales, dans le cadre d'outils d'aide au diagnostic des pathologies conséquentes de l'obésité et du surpoids. Deux parties composent ce travail : une modélisation du signal IRM d'une séquence prototype fournie par GE, et une méthode de classification floue adaptée pour répondre aux attentes des experts radiologistes et anatomopathologistes. Le signal IRM est issu des différents constituants du voxel. Afin de déterminer la proportion de graisse dans le tissu, les signaux issus de l'eau et de la graisse sont déterminées par régression à partir des images IRM obtenues en prenant en compte un a priori sur le bruit présent sur les images. Considéré de Gauss sur les images réelles et imaginaires, et de Rice sur les images amplitudes, cet a priori sur le bruit a permis de mettre en évidence l'apport de l'utilisation des données brutes lors de la quantification de la proportion de graisse et d'eau par rapport à une quantification uniquement effectuée sur les données amplitudes. La méthode de classification présentée ici permet une dépendance à longue distance lors du calcul des centroïdes. Cette méthode combinée à un algorithme de connectivité floue est adaptée à la mesure de la graisse viscérale et souscutanée. Elle fut également utilisée pour la quantification des vacuoles de triglycérides présentes sur des biopsies hépatiques. De part la proportion très hétérogène des vacuoles de stéatose, fonction du degré de la pathologie, nous avons amélioré l'algorithme de classification par une supervision permettant d'orienter la classification afin de se dédouaner de cette hétérogénéité. La classification est ensuite combinée à un système expert permettant d'éliminer les erreurs de classification survenues. L'ensemble des méthodes fut évalué dans le cadre d'expérimentations animales et de différents protocoles de recherche clinique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Daudé, Pierre. „Quantification du tissu adipeux épicardique à haut champ par IRM-Dixon, pour le phénotypage de la cardiomyopathie diabétique“. Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0333.

Der volle Inhalt der Quelle
Annotation:
L’amélioration de la prise en charge des complications cardiaques dans les maladies métaboliques, obésité et diabète, est un enjeu majeur de notre société. La mesure du tissu adipeux épicardique (TAE), dépôt de graisse attaché au cœur, est un élément diagnostique émergent et prometteur pour identifier les patients à risque. Nous avons développé l’automatisation de cette mesure sur des images IRM de routine par apprentissage profond. Puis, une technique IRM innovante a été proposée pour mesurer et caractériser le TAE en 3D, réunissant : une acquisition en respiration libre, une reconstruction des images robuste au mouvement cardio-respiratoire et aux imperfections de l’IRM, un algorithme de caractérisation de la graisse optimisé et validé et la connaissance de la composition d’échantillons ex-vivo de TAE. L’ensemble permet la caractérisation in vivo et non-invasive du TAE, élément diagnostique novateur du risque cardio-métabolique
Improving the management of cardiac complications in metabolic diseases, obesity and diabetes, is a major challenge for our society. The measurement of epicardial adipose tissue (EAT), a fat depot attached to the heart, is an emerging and promising diagnosis to identify patients at risk. We developed the automation of this measurement on routine MRI images by deep learning. Then, an innovative MRI technique was proposed to measure and characterize the EAT in 3D, combining: a free-breathing acquisition, an image reconstruction robust to cardio-respiratory motion and MRI imperfections, an optimized and validated fat characterization algorithm and the knowledge of the composition of ex-vivo EAT samples. Together, this allows for in vivo, non-invasive characterization of EAT, a novel diagnosis for cardiometabolic risk
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Rahhal, Amer. „Identification and Quantification of Fibrosis and Adipose Tissue of the Atrial Myocardium using Cardiac Magnetic Resonance Imaging“. Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS588.

Der volle Inhalt der Quelle
Annotation:
La fibrillation auriculaire est le plus souvent associée à une cardiomyopathie atriale composée de fibrose et d’infiltrats fibro-adipeux. L’identification de cette myopathie atrial en clinique est difficile, l’IRM qui permet l’imagerie tissulaire pourrait être un précieux outil diagnostic de la cardiomyopathie atriale. Méthodes: Etude de la déformation de la paroi libre de l’oreillette gauche (OG) par technique de « tracking IRM » (PLA) réalisée chez 13 patients, 24 heures avant une intervention de chirurgie valvulaire mitrale. 13 patients contrôles ont été inclus. Au cours de l’intervention, un échantillon de paroi libre de l’OG a été recueilli fixé dans le para formaldéhyde puis étudié à l’aide de technique d’histologie et par ex vitro par imagerie IRM. Résultats: La première étude a porté sur la corrélation entre les PLA et l’histologie auriculaire. Un PLA bas a été retrouvé chez les patients porteur d’un valvulopathie mitrale avec une OG remodelée par rapport à la population contrôle (P<0.001). Une corrélation significative a été observée entre la valeur du PLA et le dégrée d’infiltration fibro-adipeux du myocarde auriculaire (r=0.75, P=0.017). La deuxième étude a étudié la capacité de l’imagerie IRM d’analyser les différentes composantes histologiques du myocarde auriculaire. Nous avons établi les différentes séquences d’analyse d’image T2, Dixon qui permettent d’identifié: la fibrose, le myocarde et le tissu adipeux Conclusion : La déformation du myocarde auriculaire est liée au remodelage tissulaire et est un bon biomarqueur de la myopathie atriale. L’imagerie IRM est capable ex vivo d’identifier les différentes composantes histologiques du myocarde auriculaire
Introduction: Atrial fibrillation is associated with an atrial cardiomyopathy composed mainly of fibrosis and adipose tissue accumulation. However, its detection is difficult in clinical practice. Notably, there is controversy on the ability of MRI to quantify these components as well as the clinical significance of this parameter. Methods: LA strain (PLAS) was evaluated with MRI feature tracking in 13 patients 24 hours before mitral valve surgery and 13 healthy controls. Histologic correlation biopsies was available in 10 patients. Atrial samples were collected from patients who underwent cardiac surgery. Samples were fixed in formaldehyde and analyzed using 3D MRI acquisitions including T1 mapping and DIXON imaging. Samples were histologically analyzed in the same orientation used for MRI study. Results: We first studied the correlation between PLAS and atrial remodeling. PLAS was lower in patients with mitral regurgitation than in healthy subjects (P˂0.001). A strong association was found between PLAS and the degree of fibrofatty replacement evaluated by histologic analysis (r=-0.75, P=0.017). In a second study, we studied the ability of MRI to discriminate the various atrial components. High correlation was observed between T1 Mapping and histology for total r=0.93, interstitial r=0.93, and fatty fibrosis r=0.96. High correlation between DIXON and histology were found in fat r=0.98. Conclusion: PLAS correlates with the degree of fibrofatty infiltration which could be used as an imaging biomarker for the atrial cardiomyopathy. High field ex vivo MRI is able to identify the various components of the atrial myocardium; however, in vivo application remains a challenge
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Masson, François-Xavier. „Quantification 3D de la morphologie des grains d'or dans les sédiments meubles“. Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67752.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Guinet, Maé. „Quantification des flux d’azote induits par les cultures de légumineuses et étude de leurs déterminants : comparaison de 10 espèces de légumineuses à graines“. Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK011/document.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de la transition agroécologique en faveur de systèmes de culture plus économes en intrants azotés, la réintroduction des légumineuses a un rôle majeur à jouer pour atteindre la durabilité de ces systèmes. Peu de références sont actuellement disponibles sur les intérêts agronomiques et écologiques des différentes espèces, notamment à l’échelle de la rotation. Dans ce cadre, notre objectif principal consiste à mieux quantifier les flux d’azote impliqués au cours et après culture de légumineuses, et ce pour une gamme élargie d’espèces. Notre travail expérimental porte donc sur la caractérisation des flux d’azote induits dans le sol et dans les cultures de légumineuses aux caractéristiques morphologiques contrastées en parallèle de la mesure des déterminants de ces flux. Les objectifs spécifiques consistent à : i) quantifier la fixation symbiotique en fonction du niveau du stock d’azote minéral du sol, la minéralisation de l’azote des résidus de légumineuses après enfouissement et les pertes d’azote en dehors du système sol-plante (lixiviation, émission de protoxyde d’azote), ii) identifier les « traits de plantes » explicatifs des fonctions liées à ces flux d’azote. Pour atteindre ces objectifs, les différents flux d’azote ont été quantifiés au cours d’une expérimentation au champ avec implantation d’une culture de légumineuses en première année suivie par une culture de blé en année 2 qui a été menée en 2014-2015 et reconduite sur la campagne 2016-2017. En parallèle, les traits des plantes, notamment racinaires, ont été caractérisés plus finement au cours d’expérimentations conduites en conditions contrôlées
In the context of agroecological transition, the reintroduction of legume crops should play a key role in cropping system sustainability by allowing a reduction of nitrogen (N) inputs. But few references are available concerning the agronomical and ecological services provided by a wide range of legume crops, particularly within crops succession scale. Thus, the main objective of our study is to quantify the N fluxes during and after the legume crops taking into account 10 legume crops (peas, lupin, faba bean, soybean...). Our experiment consists in i) quantifying symbiotic N fixation depending on the amount of soil inorganic N, the mineralisation of N present in legume crop residues after soil incorporation and N losses outside of the soil-plant system (leaching, emission of nitrous oxide), ii) identifying plant biological traits associated to N fluxes. Thus, different N fluxes were quantified during a two-year field experiment, i.e. the first year (2014) legume crops were implanted and followed by wheat the second year (14-15) after incorportation of legume residues. This experiment was repeated in 2016-2017.In parallel, plant root traits were characterised during greenhouse hydroponic experiments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Outal, Souhaïl. „Quantification par analyse d'images de la granulométrie des roches fragmentées : amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique“. Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002394/en/.

Der volle Inhalt der Quelle
Annotation:
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus généralement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. En ce qui concerne l'étape d'extraction des contours des fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce une segmentation de l'image, basée sur une ligne de partage des eaux contrôlée par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes, et ce, en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande) : - dans le cas de faible recouvrement et chevauchement : un modèle expérimental de reconstruction volumique mettant en jeu les données des refus matériels (surface et volumes), et basé d'emblée sur les résultats de référence est développé. Les deux lois des tailles et des épaisseurs (lois de reconstruction) permettant d'attribuer une taille et un volume aux surfaces sont validées expérimentalement. - dans le cas complexe de présence de masquage entre fragments : nous commençons par émettre des hypothèses essentielles à l'adaptation de la théorie des modèles de structures aléatoires à notre cas de fragments de roches. L'analyse des limites d'une application directe du modèle aléatoire de feuilles mortes (hypothèse du schéma booléen) nous a amené à élaborer une nouvelle méthode d'acquisition basée sur une incidence à éclairement variable. S'inspirant de la technique du «shape-from-shading», elle permet d'obtenir une information supplémentaire sur le recouvrement (ombre portée entre fragments) pour l'application de la statistique des grains intacts. Enfin, les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agroalimentaire, pharmaceutique, cimenteries,...
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Ben, Saada Mariem. „Étude du comportement visco-plastique du dioxyde d'uranium : quantification par analyse EBSD et ECCI des effets liés aux conditions de sollicitation et à la microstructure initiale“. Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0270/document.

Der volle Inhalt der Quelle
Annotation:
Le dioxyde d’uranium (UO2) est utilisé en tant que combustible, sous forme de pastilles élaborées par métallurgie des poudres, dans les réacteurs nucléaires à eau pressurisée. Lors de transitoires de puissance, le centre des pastilles est le siège de mécanismes de déformation visco-plastique qui peuvent être partiellement reproduits, hors irradiation, par des essais de compression uniaxiale à haute température (typiquement 1500°C). Les conditions de sollicitation et la microstructure initiale des pastilles d’UO2 ont une influence sur leur comportement mécanique macroscopique. A l’échelle des grains, des mécanismes de sous-structuration interviennent mais, à ce jour, la sous-structure n’est pas quantifiée et le rôle des pores sur ces mécanismes n’est pas connu. Afin d’apporter des réponses sur ces points, deux lots de pastilles (L1 et L2) de taille de grains similaires, de même fraction volumique de pores, mais ceux-ci étant distribués différemment (2,5 fois plus de pores intra-granulaires dans L1 que dans L2), ont été fabriqués. Ils ont ensuite été soumis à des essais mécaniques dans différentes conditions. Le résultat montre que le lot L2 présente une vitesse de fluage plus élevée que le lot L1. Les techniques Electron BackScatter Diffraction (EBSD) et Electron Channeling Contrast Imaging (ECCI) ont été mises en œuvre et optimisées pour suivre l’évolution de la microstructure après déformation. En EBSD, le développement d’une procédure adaptée aux matériaux poreux a permis de détecter des sous-joints de grains (S-JG) de très faible désorientation (jusqu’à 0,1°), de mener une étude statistique de l'évolution de la sous-structuration des grains et d'évaluer la densité de dislocations géométriquement nécessaires générées. Différents types d’arrangements de dislocations formant les S-JG ont été révélés et analysés par ECCI. Grâce à la complémentarité de l’EBSD et de l’ECCI, la répartition des pores dans les grains et la localisation des S-JG ont pu être mises en regard. Les résultats montrent que le nombre ainsi que la fraction linéaire des S-JG et leur désorientation augmente avec le taux et la vitesse de déformation. Aux forts taux de déformation, cela conduit à la formation de nouveaux grains par un mécanisme de restauration/recristallisation dynamique par rotation de sous-grains. Pour des conditions de sollicitation identiques, les échantillons du lot L1 présentent un nombre et une fraction linéaire de S-JG nettement supérieurs à ceux du lot L2. De plus, dans le lot L1, les S-JG se localisent essentiellement à proximité des joints de grains alors qu’ils sont répartis dans l’ensemble du grain pour le lot L2. Ces différences seraient liées à une réduction du libre parcours moyen des dislocations du fait de la présence des pores intra-granulaires
Uranium dioxide (UO2) is used as a fuel, in pressurized water nuclear reactors, in the form of pellets produced by powder metallurgy. During power transients, the center part of pellets undergoes visco-plastic deformation by creep mechanisms. These mechanisms can be partially reproduced, out of irradiation, by uniaxial compression tests at high temperature (typically 1500°C). Testing conditions and initial microstructure of the UO2 pellets influence their macroscopic mechanical behavior. At the grain scale, sub-structuring mechanisms are involved, but, up to now, the sub-structure is not quantified and the role of pores on these mechanisms is unknown. In order to provide answers to these points, two batches of pellets (L1 and L2), characterized by a similar grain size, a same volume fraction of pores, but different pores distribution (2.5 times more intra-granular pores in L1 than in L2), were elaborated. They were submitted to mechanical tests under different conditions. The result shows that L1 has as a lower creep rate than L2. Electron Backscatter Diffraction (EBSD) and Electron Channeling Contrast Imaging (ECCI) techniques were used and optimized for porous materials to analyze the evolution of the microstructure after deformation. An original EBSD methodology was implemented to detect Sub-Grain Boundaries (S-GB) with very low disorientation angles (down to 0.1°), study statistically the grain fragmentation into sub-grains and evaluate the average density of the geometrically necessary dislocations. Thanks to ECCI, the arrangement of dislocations in some S-GB was evidenced and analyzed. EBSD and ECCI complementarity allowed relating the distribution of pores within the grains and the S-GB location. The results obtained on the two batches show that the number and the linear fraction of S-GB increases with the deformation level and rate. At high deformation rates, new grains appear by a mechanism of dynamic recovery/recrystallization by rotation of sub-grains. For identical loading conditions and strain rates, the samples of batch L1 have a number and a linear fraction of S-GB that are significantly higher than those of batch L2. Furthermore, in batch L1, S-GB are located essentially in the vicinity of the grain boundaries while they are distributed throughout the grain for batch L2. These microstructural differences seem to be related to a dislocation's mean free path reduction due to the presence of intra-granular pores
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Brun, Thomas. „Développement de méthode dosimétrique et de quantification du volume cible par IRM multiparamétrique pour le traitement ultra-focal du cancer de la prostate en curiethérapie de grains liés d'iode-125 personnalisés“. Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES071.

Der volle Inhalt der Quelle
Annotation:
Le traitement conventionnel du cancer localisé de la prostate, le plus fréquent chez l'homme, repose sur des approches de traitement de la glande entière et entraîne un risque important d'effets indésirables en termes de continence et de sexualité. A l'heure actuelle, les différentes stratégies de traitements peuvent être une chirurgie, une radiothérapie externe ou une curiethérapie interstitielle. Cependant, des échantillons chirurgicaux ont montré que chez une proportion significative de patients, le risque de progression du cancer était lié à un seul foyer de cancer indifférencié. De ce fait, le traitement de la lésion index primitive permettrait à la fois de lutter contre le cancer et de préserver la qualité de vie des patients. Bien que les développements récents des technologies d'imagerie et de biopsie puissent décrire l'étendue du cancer, le défi de focaliser avec précision le traitement sur la cible unique reste une tâche ardue, et les traitements focaux proposés entre la surveillance active du cancer de la prostate à faible risque et le traitement définitif des formes agressives sont encore des options en cours d'évaluation. En effet, les traitements focaux soulèvent donc des questions encore imparfaitement résolues pour un montage clinique optimal : Comment définir précisément le volume cible? Comment focaliser l'agent thérapeutique sur cette cible? Et enfin, comment surveiller le reste de la glande après le traitement ? Ce projet de thèse a pour but de développer et d'évaluer la faisabilité dosimétrique d'un traitement expérimental ultra-focal d'un cancer de la prostate par une technique de curiethérapie de grains liés d'iode 125 (I-125) et de développer une méthode de quantification dans la définition précise du foyer primitif tumoral à l'aide d'imagerie IRM multiparamétrique (IRMmp). Pour cela, le nombre et l'activité des grains d'I-125 utilisées pour la curiethérapie conventionnelle de la prostate sont définis sur la base du volume de la glande entière (environ 2 grains/cc). Par définition, la curiethérapie ultra-focale s'adresse à des cibles de formes complexes et de plus petits volumes, ce qui nous a poussé à développer une méthode dosimétrique d'implantation de multiples grains de faible activité. Deuxièmement, l'objectif de précision dans la délivrance des grains nous a conduit à mettre en œuvre l'utilisation séquentielle de trois systèmes d'imagerie distincts: l'IRMmp pour informer sur la position et le volume de la cible, l'échographie transrectale 3D (TRUS) pour délivrer un marqueur fiduciaire dans la cible tirant parti de la fusion non rigide avec l'IRMmp et une sonde échographique 2D biplanaire requis pour la planification du traitement et la pose des grains. Enfin, l'évaluation de la qualité du traitement - c'est-à-dire de la dose délivrée à la cible unique, par opposition à la glande entière en curiethérapie conventionnelle - a été rendu possible grâce au développement d'une méthode de quantification basée sur la définition précise de la position du volume cible tumoral à traiter à partir des données des imageries IRMmp et en comparaison par rapport aux données dosimétriques obtenues pour chaque patient de l'étude
The conventional treatment of localized prostate cancer, the most common cancer in men, is based on whole-gland treatment approaches and drives a significant risk of adverse effects in terms of continence and sexuality. Currently, various treatment strategies include surgery, external beam radiotherapy, or brachytherapy. However, surgical specimens have shown that in a significant proportion of patients, the risk of cancer progression is associated with a single focus of undifferentiated cancer. Therefore, treating the primary index lesion would achieve both cancer control and preservation of quality of life. Although recent developments in imaging and biopsy technologies can outline the extent of the cancer, the challenge of focusing the required precision with the treatment agent remains a daunting task, and focal treatments proposed between active surveillance of low-risk Prostate Cancer and definitive treatment of aggressive forms are still options under assessment Indeed, focal treatments raise questions that are still imperfectly resolved for an optimal clinical implementation: How to precisely define the target volume? How to focus the therapeutic agent on this target? And finally, how to monitor the rest of the gland after treatment? The aim of this thesis project is to develop and evaluate the dosimetric feasibility of an experimental ultra-focal treatment for prostate cancer using iodine-125 seeds brachytherapy and to develop a quantification method for the precise definition of the primary tumor focus using multiparametric MRI (mpMRI) imaging. To achieve this, the number and activity of I-125 seeds used for conventional prostate brachytherapy are defined based on the volume of the entire gland (approximately 2 seeds/cc). By definition, ultra-focal brachytherapy targets complex-shaped and smaller volumes, prompting us to develop a dosimetric method for implanting multiple seeds with low activity. Secondly, the precision objective in seed delivery led us to implement the sequential use of three distinct imaging systems: mpMRI to inform on the position and volume of the target, 3D transrectal ultrasound to deliver a fiducial marker into the target leveraging non-rigid fusion with mpMRI, and a 2D biplanar ultrasound probe required for treatment planning and seed placement. Finally, the evaluation of treatment quality - that is, the dose delivered to the single target as opposed to the entire gland in conventional brachytherapy - was made possible by developing a quantification method based on the precise definition of the position of the target tumor volume to be treated from mpMRI data and compared to dosimetric data obtained for each patient in the study
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Beaujeux, Rémy. „Spécificité, fonction et imagerie de la graisse épidurale lombaire postérieure“. Université Louis Pasteur (Strasbourg) (1971-2008), 1994. http://www.theses.fr/1994STR11419.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Abdesselam, Inès. „Dépôts de graisse ectopique : étude de leur développement et de leur modulation“. Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM5005.

Der volle Inhalt der Quelle
Annotation:
Le projet de cette thèse porte sur le développement de dépôts lipidiques ectopique et leur modulation suite à des intervenions thérapeutiques par imagerie résonance magnétique.Dans notre première étude, nous avons établi l’ordre chronologique d’apparition de graisses ectopiques et d’anomalies cardiaques dans un modèle de souris soumises à un régime riche en graisse et en sucre. Un traitement de courte durée à l’exendine-4 permet une amélioration de tous les paramètres altérés. Dans la deuxième étude, nous avons évalué l’impact d’un traitement de l’obésité sur les dépôts ectopique de graisse cardiaque (TAE et stéatose), hépatique et pancréatique à deux temps (6 mois et 32 mois) après chirurgie bariatrique. Nous avons montré que ce traitement chirurgical permet une réduction de tous ces dépôts, avec une cinétique différente. Enfin, dans la troisième étude, nous nous sommes intéressés à l’effet du poids de naissance sur le développement de tissu adipeux épicardique. Cette étude nous a permis de mettre en évidence qu’il existe une accumulation plus importante de TAE à l’âge adulte lorsque le poids de naissance est augmenté ; et que les paramètres poids de naissance et croissance entre 2 et 12 ans, jouent un rôle important dans la mise en place de ce dépôts de graisse ectopique. En somme, ces résultats permettent une avancée dans la compréhension du développement des dépôts de graisses et de leur modulation
The project of this thesis mainly focuses on ectopic lipid deposition development and their flexibility following therapeutic intervention. In our first study, we set out chronological order of ectopic fat onset and cardiac abnormalities in a high fat high sucrose mice model. Short duration exendin-4 treatment reverses every altered parameter. In the second study, we assessed treatment of obesity effect on cardiac ectopic fat deposition (EAT and steatosis), as well as hepatic and pancreatic fat at two different time points (6 months and 32 months) after bariatric surgery. We show significant reduction of every ectopic fat deposition, however in different kinetic. Finally, in a third study, we investigate birth weight effect on epicardial adipose tissue development. This study demonstrate important EAT accumulation in adulthood when birth weight is increased. Furthermore, birth weight and catch up growth in childhood between 2 and 12 years parameters impact significantly the development of epicardial fat.In summary, these results provide better understanding of ectopic fat deposition development and modulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

JACOBERGER, BERNADETTE. „Diffusion dans la graisse epiploique de differentes familles d'antibiotiques utilisees en antibioprophylaxie“. Strasbourg 1, 1992. http://www.theses.fr/1992STR15060.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Balouet, Pierre. „Estimation du poids foetal : intérêt de la mesure de la graisse des membres“. Caen, 1991. http://www.theses.fr/1991CAEN3055.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Herbelot, Aurelie. „Underspecified quantification“. Thesis, University of Cambridge, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.609091.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Beaudin, Gilles. „L'anhydrase carbonique III du muscle squelettique humain“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ31676.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Degrace, Pascal. „Nature et origine des acides gras constitutifs des lipides des lipoprotéines de la lymphe intestinale. Etude en périodes interprandiale et postprandiale chez le rat préalablement soumis à différents régimes hyperlipidiques de longue durée“. Dijon, 1997. http://www.theses.fr/1997DIJOS030.

Der volle Inhalt der Quelle
Annotation:
Des rats sont soumis pendant 4 semaines, soit à un régime normolipidique standard soit à des régimes hyperlipidiques contenant 15% d'huile de tournesol, d'huile de menhaden ou d'huile MCT. Nous avons déterminé la composition en acides gras de la lymphe, de la bile et du sang, ainsi que du tissu adipeux et du foie. Les acides gras caractéristiques des régimes et ceux dérivant de leur métabolisme hépatique apparaissent à différents niveaux de l'organisme et particulièrement au niveau des phospholipides biliaires et dans le plasma. Afin de déterminer si les régimes influent sur l'absorption intestinale des acides gras, nous avons analysé la lymphe après avoir infusé intraduodénalement aux animaux une émulsion contenant 90 moles de lipides dont les acides oléique et arachidonique marqués. L'accoutumance aux régimes tournesol et menhaden conduit à une augmentation de la quantité d'acides gras dans la lymphe après infusion de l'émulsion lipidique. Ce résultat semble être la conséquence d'une production importante de phospholipides biliaires, source d'acides gras endogènes participant à la synthèse des composants lipidiques des lipoprotéines intestinales. Au contraire, l'accoutumance au régime hyperlipidique MCT semble inhiber la sécrétion des phospholipides biliaires, diminuer la quantité d'acides gras lymphatiques, et vraisemblablement augmenter l'absorption des acides gras à longue chaine par la voie portale mésentérique. Dans le but d'évaluer les capacités d'absorption de l'intestin des animaux soumis aux différents régimes, des études concernant l'expression du fatty acid transporter (fat) et de la liver fatty acid binding protein (l-fabp) ont été réalisées. Des modifications morphologiques et fonctionnelles de l'intestin, relatives à la nature et a la quantité des acides gras exogènes et endogènes atteignant les enterocytes et susceptibles de modifier les capacités d'absorption, apparaissent après 4 semaines de régime.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

JACOBERGER, BERNADETTE. „Diffusion d'antibiotiques utilises en antibioprophylaxie de chirurgie digestive (doctorat : sciences pharmaceutiques)“. Strasbourg 1, 1999. http://www.theses.fr/1999STR15113.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Vial, Guillaume. „Métabolisme hépatocytaire et insulinorésistance : effets d'un régime enrichi en graisse et d'un nouvel antidiabétique "E008"“. Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10269.

Der volle Inhalt der Quelle
Annotation:
Avec une prévalence en constante augmentation, le diabète de type II est devenu un réel enjeu de santé publique. Cette pathologie se caractérise par une hausse de la production hépatique de glucose, reflet d'une néoglucogenèse accrue qui évoluera en hyperglycémie chronique. Le foie est donc un tissu-cible privilégié pour lutter contre les déséquilibres du métabolisme glucidique. Une nouvelle drogue dérivée de la Metformine et dénuée d'effets secondaires, le E008, a été synthétisée par Merck-Santé pour normaliser la glycémie des sujets diabétiques. Le double objectif de notre travail a consisté à (i) étudier les modifications des flux métaboliques au niveau hépatique dans un modèle nutritionnel de rats développant un syndrome métabolique, (ii) analyser les effets de ce nouveau composé médicamenteux et tenter d'élucider ses mécanismes d'action. Le régime enrichi en graisses entraîne une hausse de la néoglucogenèse associée à des perturbations de la fonction mitochondriale : hausse des radicaux libres, inhibition de la respiration, variation du potentiel rédox. Un dénominateur commun à ces évènements pourrait être une altération mutuelle de la composition des lipides membranaires et des quinones. L'administration du nouvel agent antidiabétique E008 à des rats sous régime gras permet de réduire leur production hépatique exacerbée de glucose, en modifiant le contrôle des voies métaboliques. De plus, il induit une inhibition subtile de la respiration cellulaire en agissant à la fois sur la chaîne respiratoire et sur le système phosphorylant (complexe I inhibé et expression réduite de l'ANT). Son action est également liée à une activation de la protéine kinase AMP dépendante (AMPK), par altération des rapports des nucléotides adényliques
With a steadily increasing prevalence, type II diabetes is becoming a major public health issue. This pathology is characterized by an increase of the hepatic glucose production, reflecting a raise of gluconeogenesis, which evolves into chronic hyperglycemia. Liver is thus a privileged target to fight against imbalances of glucose metabolism. A new drug derived from the Metformin and devoid of side effects, the E008, was synthesized by Merck-Santé to normalize blood glucose levels in diabetic patients. The dual objective of our work consisted in (i) studying liver metabolic fluxes in a nutritional rat model which exhibits a metabolic syndrome, and (ii) analysing the effects of this new compound while elucidating its mechanisms of action. Animals fed a high-fat diet have an increased gluconeogenesis, associated with disturbances of the mitochondrial function: increase of ROS production, inhibition of oxygen consumption and changes in redox potential. A common denominator in these events could be a mutual alteration of the composition of membrane lipids and quinones. On rats fed with a high-fat diet, E008 treatment decreases the hepatic glucose output by modifying metabolic control. Furthermore, it induces a subtle inhibition of cellular respiration while acting, at the same time, on the respiratory chain activity and phosphorylating system. (Inhibition of complex I and ANT reduced expression). Its action is also related to an activation of AMP-activated protein kinase (AMPK), by modification of adenine nucleotides ratios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Aḵẖtar, ʻAlī. „Identity and quantification“. Thesis, Massachusetts Institute of Technology, 1985. http://hdl.handle.net/1721.1/15146.

Der volle Inhalt der Quelle
Annotation:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Linguistics and Philosophy, 1985.
MICROFICHE COPY AVAILABLE IN ARCHIVES AND HUMANITIES
Vita.
Includes bibliographical references.
by Ali Akhtar.
Ph.D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Basilico, David Anthony. „Quantification and locality“. Diss., The University of Arizona, 1993. http://hdl.handle.net/10150/186305.

Der volle Inhalt der Quelle
Annotation:
This dissertation develops a transformational theory of scope which is based not on the position to which an entire quantificational noun phrase (QNP) can move and adjoin but on the position and to which a quantificational determiner can move and adjoin. Following Heim (1982), a tripartite representation for sentences containing QNPs is adopted in which quantificational determiners move out of their containing noun phrases and adjoin to the sentence node at the level of Logical Form (LF). By utilizing this type of representation, asymmetries between the movement possibilities of a phrase and scope possibilities of a phrase can be captured. This dissertation argues that movement of an operator is free but constrained by the operator acquiring the selection index of the phrase which it binds. The selection index is percolated up the tree in a series of local relationships (government, specifier/head and X-Bar). This index percolation is dependent on the ability of a syntactic head to acquire an index. The necessity of this index percolation approach is demonstrated in the first chapter, which investigates the phenomenon of unselective binding between an adverbial operator and indefinite in restrictive 'if/when' clauses. It shows that this relationship is sensitive to some syntactic islands but not others. It demonstrates that the index percolation approach is the best way to capture the selective island sensitivities of this phenomenon. Additional motivation for this account is given in chapter two, which deals with internally headed relative clauses (IHRCs). Several parallels between IHRCs and restrictive 'if/when' clauses are noted. It shows that the binding of the internal head by the determiner associated with the IHRC is similar to the binding of an indefinite by an adverbial operator. The next two chapters treat the phenomenon of partial Wh-movement. These chapters further show the application of the index percolation account because they argue that the relationships noted above between an adverbial operator and indefinite and operator and internal head are analogous to the relationship between a partially moved WH-Phrase and the sentence initial scope marker. In chapter six, the scope of quantified possessive phrases in English is examined. This is a case where movement of a phrase and scope of a phrase sharply differ. The approach where the determiner of the possessive is moved alone, with index percolation from the phrase in the specifier position to the moved determiner, is shown to best handle these cases.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Buyck, Dominique. „Influence de la graisse sur les mesures de vélocité et d'atténuation des ultrasons par le calcaneum“. Montpellier 1, 1993. http://www.theses.fr/1993MON11041.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Vadeboncoeur, Nathalie. „Quels sont les meilleurs indicateurs d'adiposité associés au profil métabolique des patients participants à un programme de prévention primaire et secondaire/réadaptation cardiaque?“ Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28044/28044.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Renondeau, Hugues. „Evolution des propriétés tribologiques et physico-chimiques d'une graisse polyurée dans un roulement à billes de roue“. Ecully, Ecole centrale de Lyon, 2004. http://bibli.ec-lyon.fr/exl-doc/hrenondeau.pdf.

Der volle Inhalt der Quelle
Annotation:
L'accroissement du poids des automobiles entraîne une quantité d'énergie à dissiper au freinage plus importante, donc une élévation de la température de fonctionnement des roulements à billes qui supportent en plus la surchage du véhicule. Parallèlement, de nouveaux types de graisses se développent sur le marché européen et américain comme les graisses à base d'épaississant polyurées. Ces nouvelles formulations sont censées répondre à un certain nombre d'exigences que réclame justement l'industrie automobile. L'étude développée ici cherche à décomposer le comportement d'une graisse dans un roulement à billes dans ses différentes étapes de fonctionnement, c'est à dire, au démarrage, au cours puis en fin de roulement. Un tribomètre bille/plan simulant le régime de lubrification élastohydrodynamique dans le roulement permet de mener l'étude expérimentale. Trois étapes sont identifées pour décrire le fonctionnement du roulement. Tout d'abord, le roulement opère en régime suralimenté. Le couplage des investigations rhéologiques et spectrométriques avec la mesure des épaisseurs de films permet d'évaluer la composition du film d'alimentation. La seconde étape est le régime de sous-alimentation qui se caractérise par des épaisseurs de films plus faibles et des mécanismes d'alimentation mettant en jeux des forces capillaires. Une approche novatrice du tribomètre bille/plan est développée et permet d'avancer plusieurs hypothèses sur les mécanismes de réalimention observés : fluide homogène ou mécanismes d'imprégnations de poreux. Il ressort de ces descriptions que l'évolution du débit de réalimentation capillaire caractérisé précédemment soit représentatif de la durée de vie du régime sous-alimenté. Finalement, la dernière étape fait intervenir la réaction des additif avec les surfaces lorsque tout le lubrifiant est consommé, on parle alors de mécanismes tribochimiques
Due to an increase of the automotive weight, the energy to be dissipated by brakes is more significant ; therefore, it leads to a rise of working temperature for the ball bearings. In the same time, new chemistries as the polyurea greases grow up on the US and EU market. These new formulations are supposed to answer to certain requirements which are precisely claimed by the automotive industry. The aim of this study is to decompose the behaviour of the grease in a ball bearing from the beginning to the end of its lifetime. The use of a ball on disc tribometer simulating the EHL regime that occurs in a bearing makes it possible. The behaviour of grease can be described by three stages. Firstly, the bearing operates in fully flooded regime. By coupling rheological and spectrometric investigations with film thickness measurement, it has been possible to determine the composition of the grease lubricating film. The second stge is the starved regime which is characterised by lower film thicknesses and a particular supply mechanism based on capillaries forces. We have developed an innovative approach based on the static used of the ball on disc device : it allows us to advance several assumptions on the supply of lubricant : either homogeneous fluid or impregnation of a porous media with lubricating phasis. Then, it gets out that the capillary flow deduced from the experiments is representative of the lifespan of this second stage. Finally, the third and last stage utilizes the reaction of additives withe surfaces when all the lubricant is consumed : on speaks of tribochemicals mechanisms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Renondeau, Hugues Mazuyer Denis. „Evolution des propriétés tribologiques et physico-chimiques d'une graisse polyurée dans un roulement à billes de roue“. Ecully : Ecole centrale de Lyon, 2004. http://bibli.ec-lyon.fr/exl-doc/hrenondeau.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Bui, Huy Q. „Quantification, opacity and modality“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/MQ65025.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Cameron, Lee R. J. „Aerosol explosion hazard quantification“. Thesis, Cardiff University, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.311674.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Jiang, Yan. „Logical dependency in quantification“. Thesis, University College London (University of London), 1995. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.306968.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Sved, Sofia. „Quantification of Model Rrisk“. Thesis, KTH, Matematisk statistik, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-243924.

Der volle Inhalt der Quelle
Annotation:
The awareness of model risk has increased due to the increased use of models to valuate financial instruments and their increasing complexity and regulators now require financial institutions to manage it. Despite this, there is still no industry or market standard when it comes to the quantification of model risk. The objective with this project is to find and implement a method that may be used to quantify model risk and evaluate it based on accuracy, efficiency and generalizability. Several approaches to model risk in the literature are explored in this thesis and it is concluded that existing methods are generally not efficient, accurate or generalizable. However, by combining two of the existing methods in the literature and using data on counterparty valuations, another method to quantify model risk can be constructed. This method is implemented and backtested and it is found to be accurate, general and more efficient than alternative approaches. Furthermore, this method may also serve in model validation as a mean to judge the quality of valuations and compare valuation models to each other. One limitation of the method is that if there are few counterparties for a valuation model, say 1 or 2, the method used in this thesis is not suitable.
Medvetenheten kring modellrisk har ökat på grund av ökad användning av modeller vid värdering av finansiella instrument samt deras ökande komplexitet. Dessutom begär nu regulatorer att institutioner ska beräkna samt redogöra för modellrisk. Trots detta finns ännu ingen bransch eller marknadsstandard när det kommer till hur modellrisk bör kvantifieras. Syftet med projektet är att hitta och implementera en metod som kan användas för att kvantifiera modellrisk samt utvärdera denna baserat på effektivitet, noggrannhet och generaliserbarhet. I den här uppsatsen har flera olika tillvägagångssätt i litteraturen för att kvantifiera modellrisk utvärderats med slutsatsen att befintliga metoder i allmänhet varken är effektiva, korrekta eller generaliserbara. Däremot, genom att kombinera två av de befintliga metoderna i litteraturen och använda data om motpartsvärderingar kan en annan metod för att kvantifiera modellrisken konstrueras. Denna metod implementeras och backtestas och den visar sig vara noggrann, generaliserbar och effektivare än de alternativa metoderna vilket var vad som eftersöktes. Vidare kan denna metod också tjäna i modellvalidering som ett medel för att bedöma hur väl värderingar från en viss modell överensstämmer med marknadens värderingar samt för att jämföra värderingsmodeller med varandra. En begränsning som kan identifieras för denna metod är att om det finns få motparter till en värderingsmodell, säg 1 eller 2, är metoden som används i denna uppsats inte lämplig för att kvantifiera modellrisk.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Ferreira, Marcelo (Marcelo Barra). „Event quantification and plurality“. Thesis, Massachusetts Institute of Technology, 2005. http://hdl.handle.net/1721.1/33697.

Der volle Inhalt der Quelle
Annotation:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Linguistics and Philosophy, 2005.
Includes bibliographical references (p. 131-138).
This dissertation presents three studies based on the hypothesis that the domain of entities on which natural language interpretation relies includes a partially ordered sub-domain of events. In this sub-domain, we can identify singular and plural elements, the latter being characterizable as mereological sums having singular events as their minimal parts. I discuss how event variables ranging over pluralities are introduced in the logical representation of natural languages sentences and how event operators manipulate these variables. Logical representations are read off syntactic structures, and among the elements I will claim are hidden in the syntactic representation of certain sentences are plural definite descriptions of events and event quantifiers selectively binding plural variables. My goal will be to motivate the postulation of these elements by showing how reference to pluralities of events shed light on several properties of a variety of constructions, and how interpretive differences originated in singular/plural oppositions overtly manifested in the nominal domain are replicated in the aspectual/verbal domain, even in the absence of any overt morphological manifestation.
(cont.) The empirical domain of investigation includes adverbial quantification, donkey anaphora and imperfective aspect, with both habitual and progressive readings being analyzed in detail.
by Marcelo Ferreira.
Ph.D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Gotham, M. G. H. „Copredication, quantification and individuation“. Thesis, University College London (University of London), 2014. http://discovery.ucl.ac.uk/1460158/.

Der volle Inhalt der Quelle
Annotation:
This thesis addresses the various problems of copredication: the phenomenon whereby two predicates are applied to a single argument, but they appear to require that their argument denote different things. For instance, in the sentence ‘The lunch was delicious but went on for hours’, the predicate ‘delicious’ appears to require that ‘the lunch’ denote food, while ‘went on’ appears to require that it denote an event. Copredication raises philosophical issues regarding the place of a reference relation in semantic theory. It also raises issues concerning the ascription of sortal requirements to predicates in framing a theory of semantic anomaly. Finally, many quantified copredication sentences have truth conditions that cannot be accounted for given standard assumptions, because the predicates used impose distinct criteria of individuation on the objects to which they apply. For instance, the sentence ‘Three books are heavy and informative’ cannot be true in a situation involving only a trilogy (informationally three books, but physically only one), nor in a situation involving only three copies of the same book (physically three books, but informationally only one): the three books involved must be both physically and informationally distinct. The central claims of this thesis are that nouns supporting copredication denote sets of complex objects, and that lexical entries incorporate information about their criteria of individuation, defined in terms of equivalence relations on subsets of the domain of discourse. Criteria of individuation are combined during semantic composition, then accessed and exploited by quantifiers in order to specify that the objects quantified over are distinct in defined ways. This novel approach is presented formally in Chapters 2 and 3, then compared with others in the literature in Chapter 4. In Chapter 5, the discussion is extended to the question of the implications of this approach for the form that a semantic theory should take.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Albuisson, Eliane. „Quantification des électrogrammes visuels“. Paris 6, 1992. http://www.theses.fr/1992PA061001.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Elhadad, Jimmy. „Problèmes de quantification géométrique“. Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX11274.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur la quantification geometrique des varietes symplectiques et son application a divers modeles physiques. Le premier article traite du modele d'atome d'hydrogene et, partant d'une description classique, nous appliquons les procedures de quantification geometrique et proposons une interpretation des etats quantiques qui rende compte des symetries du modele. Dans le deuxieme article nous nous interessons au flot geodesique d'une sphere et nous construisons une quantification explicite. Le troisieme article revient sur le modele d'atome d'hydrogene et integre dans le cadre de la quantification geometrique les corrections usuelles de structures fine et hyperfine introduites en physique. Les trois articles suivants posent le probleme de la quantification d'un systeme mecanique contraint. Nous montrons a partir d'exemples comment il est necessaire de modifier la condition de dirac. Cette modification n'etant pertinente que dans le cas ou le groupe de symetrie n'est pas unimodulaire, nous etudions comment une extension appropriee du systeme permet de recouvrir les proprietes de fonctorialite du processus de quantification vis-a-vis de l'operation de reduction. Le procede d'extension est enfin applique pour etudier la structure de certaines orbites coadjointes d'un groupe de lie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Tran, Thuan. „Wh-quantification in Vietnamese“. Access to citation, abstract and download form provided by ProQuest Information and Learning Company; downloadable PDF file, 274 p, 2009. http://proquest.umi.com/pqdweb?did=1694575191&sid=5&Fmt=2&clientId=8331&RQT=309&VName=PQD.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

May, Robert. „The grammar of quantification /“. New York : Garland, 1990. http://catalogue.bnf.fr/ark:/12148/cb35690684g.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

LAURENT, WILFRIED. „Determination des composantes structurales du muscle par imagerie rmn a haut champ : mise en correspondance avec l'image ultrasonore (doctorat : genie informatique)“. Clermont-Ferrand 1, 2000. http://www.theses.fr/2000CLF1MM05.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Janmahasatian, Sarayut. „Quantification of lean body weight /“. [St. Lucia, Qld.], 2005. http://www.library.uq.edu.au/pdfserve.php?image=thesisabs/absthe19202.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Norvoll, Gyrd. „Quantification and Traceability of Requirements“. Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2007. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-8723.

Der volle Inhalt der Quelle
Annotation:

Software development is a highly dynamic process, primarily caused by its foundation in the dynamic human world. Requirements traceability alleviates the detrimental effects of this dynamism by providing increased control over the artifacts of the software development processes and their interrelationships. This thesis investigates how an RT tool should be designed and implemented in order to assist with the tasks of requirements traceability, and outlines a tool that primarily focuses on reducing the work overhead associated with the tasks of implementing requirements traceability in software development projects. Preparatory to the development of the RT tool, the applicability of the traceability models presented in the in-depth study has been confirmed through empirical work. A detailed representation of the models has been compiled, elaborating on the internal representation of artifacts and traces. The models were extended to be able to represent organisational hierarchies, enabling trace information analysis to deduce the context of important decisions throughout the software development processes, an important tool in understanding how requirements are determined. The thesis presents a requirements specification and architecture with a firm foundation in the findings of the in-depth study, outlining an RT tool that addresses important issues concerning the implementation of requirements traceability, in particular focusing on reducing the associated work overhead. Based on the requirements specification and architecture, a evolutionary prototype is developed, giving its users an impression of the functionality of the outlined RT tool. The prototype addresses the issues pointed out by the requirements specification and architectural description, and, throughout development, attention is given the evolvability of the prototype. Consequently, the prototype provides a good foundation for the future development of a complete RT tool.

APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Bejugam, Santosh. „Tremor quantification and parameter extraction“. Thesis, Mittuniversitetet, Institutionen för informationsteknologi och medier, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:miun:diva-16021.

Der volle Inhalt der Quelle
Annotation:
Tremor is a neuro degenerative disease causing involuntary musclemovements in human limbs. There are many types of tremor that arecaused due to the damage of nerve cells that surrounds thalamus of thefront brain chamber. It is hard to distinguish or classify the tremors asthere are many reasons behind the formation of specific category, soevery tremor type is named behind its frequency type. Propermedication for the cure by physician is possible only when the disease isidentified.Because of the argument given in the above paragraph, there is a needof a device or a technique to analyze the tremor and for extracting theparameters associated with the signal. These extracted parameters canbe used to classify the tremor for onward identification of the disease.There are various diagnostic and treatment monitoring equipment areavailable for many neuromuscular diseases. This thesis is concernedwith the tremor analysis for the purpose of recognizing certain otherneurological disorders. A recording and analysis system for human’stremor is developed.The analysis was performed based on frequency and amplitudeparameters of the tremor. The Fast Fourier Transform (FFT) and higherorderspectra were used to extract frequency parameters (e.g., peakamplitude, fundamental frequency of tremor, etc). In order to diagnosesubjects’ condition, classification was implemented by statisticalsignificant tests (t‐test).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Leblond, Frédéric. „Quantification rigide de skyrmions déformés“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape15/PQDD_0006/MQ33694.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Hodges, Amanda E. „Objective Quantification of Daytime Sleepiness“. Digital Archive @ GSU, 2011. http://digitalarchive.gsu.edu/iph_theses/175.

Der volle Inhalt der Quelle
Annotation:
BACKGROUND: Sleep problems affect people of all ages, race, gender, and socioeconomic classifications. Undiagnosed sleep disorders significantly and adversely impact a person’s level of academic achievement, job performance, and subsequently, socioeconomic status. Undiagnosed sleep disorders also negatively impact both direct and indirect costs for employers, the national government, and the general public. Sleepiness has significant implications on quality of life by impacting occupational performance, driving ability, cognition, memory, and overall health. The purpose of this study is to describe the prevalence of daytime sleepiness, as well as other quantitative predictors of sleep continuity and quality. METHODS: Population data from the CDC program in fatigue surveillance were used for this secondary analysis seeking to characterize sleep quality and continuity variables. Each participant underwent a standard nocturnal polysomnography and a standard multiple sleep latency test (MSLT) on the subsequent day. Frequency and chi-square tests were used to describe the sample. One-Way Analysis of Variance (ANOVA) was used to compare sleep related variables of groups with sleep latencies of <5 >minutes, 5-10 minutes, and >10 minutes. Bivariate and multivariate logistic regression was used to examine the association of the sleep variables with sleep latency time. RESULTS: The mean (SD) sleep latency of the sample was 8.8 (4.9) minutes. Twenty-four individuals had ≥1 SOREM, and approximately 50% of participants (n = 100) met clinical criteria for a sleep disorder. Individuals with shorter sleep latencies, compared to those with longer latencies reported higher levels of subjective sleepiness, had higher sleep efficiency percentages, and longer sleep times. The Epworth Sleepiness Scale, sleep efficiency percentage, total sleep time, the presence of a sleep disorder, and limb movement index were positively associated with a mean sleep latency of <5 >minutes. CONCLUSIONS: The presence of a significant percentage of sleep disorders within our study sample validate prior suggestions that such disorders remain unrecognized, undiagnosed, and untreated. In addition, our findings confirm questionnaire-based surveys that suggest a significant number of the population is excessively sleepy, or hypersomnolent. Therefore, the high prevalence of sleep disorders and the negative public health effects of daytime sleepiness demand attention. Further studies are now required to better quantify levels daytime sleepiness, within a population based sample, to better understand their impact upon morbidity and mortality. This will not only expand on our current understanding of daytime sleepiness, but it will also raise awareness surrounding its significance and relation to public health.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Pinnaka, Chaitanya. „Quantification of User Privacy Loss“. Thesis, KTH, Kommunikationsnät, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-119822.

Der volle Inhalt der Quelle
Annotation:
With the advent of communication age newer, faster and arguably better ways of moving information are at our disposal. People felt the need to stay connected which led to the evolution of smart gadgets like cell phones, tablets and laptops. The next generations of automobiles are keen in extending this connectivity to the vehicle user by arming themselves with radio interfaces. This move will enable the formation of vehicular networks where each car (mobile node) will be an instance of mobile ad hoc networks, popularly referred as Vehicular AdHoc Networks (VANETS). These networks will provide further necessary infrastructure for applications that can help improving safety and efficiency of road traffic as well as provide useful services for the mobile nodes (cars). The specific nature of VANETS brings up the need to address necessary security and privacy issues to be integrated into the social world. Thus, the open field of secure inter-vehicular communication promises an interesting research area. This thesis aims to quantify how much of a user trajectory can an adversary identify while monitoring non-safety applications in VANETS. Different types of adversaries, their attacks and possible non-safety applications are also discussed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Lascelles, Dominique. „Quantification of adsorbed flotation reagents“. Thesis, McGill University, 2004. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=80118.

Der volle Inhalt der Quelle
Annotation:
Collector interaction with mineral surfaces has long been studied. Little work has been done, however, on directly quantifying reagent adsorption, certainly under industrial process conditions. The use of a novel surface analysis technique, Headspace Analysis Gas-phase Infrared Spectroscopy (HAGIS), is suggested for quantification of adsorbed reagents in mineral processing.
As a first exercise, a test system of xanthate adsorption onto lead sulphide minerals was studied. A survey of possible calibration standards (pure xanthate, a synthetic lead-xanthate, galena (PbS) and a lead sulphide ore conditioned with xanthate) resulted in linear curves for all four cases. The quantification of isopropyl xanthate adsorption onto batch flotation products (concentrate and tail) was used to determine that ore standards gave the most accurate results.
The technique was also tested for quantification of adsorbed amines. Two collectors, dodecylamine and diphenylguanidine, and a depressant, triethylenetetramine, were studied. A common calibration curve was prepared using diphenylguanidine adsorbed on Inco matte. Results show that the HAGIS technique can easily be used to quantify adsorbed amines.
It is concluded that the HAGIS technique is a powerful new tool for the quantitative determination of adsorbed reagents. The xanthate study showed the use of ores as standards produces the best calibration. The amine study introduced the possibility of analyzing reagent mixtures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Nemes, Simona. „Practical methods for lignans quantification“. Thesis, McGill University, 2012. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=110432.

Der volle Inhalt der Quelle
Annotation:
An optimized microwave-assisted extraction (MAE) method is proposed, in conjunction with high performance liquid chromatography (HPLC) analysis, for the general quantification of lignans in flaxseed materials and other plant foods. The method involves hydrolyzing 0.5 – 1.6 g samples with 50 ml of 0.5 M NaOH at 156 W (power level estimated using calorimetric calibration) for 3 min, using intermittent microwave power application (30 s on/off). The final temperature of the extracts is 67°C. The MAE method extracts the lignan from the plant matrix completely, accurately (97.5 % recovery), efficiently (yields 21.4 and 26.6 % higher than those obtained with reference methods), and precisely (coefficients of variation < 4.03 % for repeated determinations). An enzymatic hydrolysis (EH) method, complementary to the MAE method, was developed for the general determination of lignan aglycones in plant samples. The EH method involves hydrolyzing microwave-assisted extracts containing 100 mg sample in 3 ml of sodium acetate buffer (0.01 M, pH 5), with crude solutions of β-glucuronidase using ≥ 40 U of enzyme/mg sample (depending on the hydrolysing capacity of various batches of enzyme) by incubation at 37°C for 48 h. The lignan glucosides are hydrolysed in proportion of 95.6 %. The EH method is recommended for building databases of lignan contents in foods, useful for nutritionists and medical researchers who seek to assess the effects of dietary lignan intake on human health. Artificial neural network (ANN) and partial least squares (PLS) regression models, which are complementary to the MAE method, were calibrated for the general quantification of lignans in a variety of flaxseed materials. The lignan values predicted with the ANN and PLS models were in the range of ± 0.67 to 4.85 % of the reference lignan values. Using the ANN and PLS models requires measuring the UV-Vis light absorption of microwave-assisted flaxseed extracts at 289, 298, 343, and 765 nm, following the Folin-Ciocalteu's assay; the models are useful to the flaxseed processing industry for rapidly and accurately determining the lignan contents of various flaxseed raw materials. A non-automated, affordable and accurate solid phase extraction (SPE) method was developed for purifying microwave-assisted flaxseed extracts. The method requires the preparation of extracts prior to SPE by adjusting the pH of extracts in two stages, 1st to pH 3 with sulphuric acid for removing the water soluble proteins and carbohydrates by precipitation, and 2nd to pH 5 with sodium hydroxide for improving the retention of lignan by the packed SPE phase in order to reduce the lignan losses in the wash-water eluate. Microwave-assisted extracts from 0.6 and 1.5 g defatted flaxseed meal can be purified by SPE in order to recover in the 10, 20 and 30 % ethanol pooled eluates 71.2 % and 60.6 %, respectively, of the amount of lignan subjected to purification. SPE purified extracts can be used for further experiments, such as testing the antioxidant activity and the stability of the lignan extracts during various storage conditions.
Une méthode optimisée d'extraction assistée par micro-ondes (EAMO), en conjonction avec l'analyse par chromatographie liquide de haute performance, est proposée pour la quantification de lignanes, de façon généralisée, dans des échantillons des graines de lin et des aliments d'origine végétale. La méthode nécessite l'hydrolyse des échantillons de 0.5 - 1.6 g avec 50 ml de NaOH 0.5 M en appliquant 156 W (niveau de puissance estimé par calibration calorimétrique) de façon intermittente (30 s marche/arrêt) pour 3 min. La température finale des extraits était de 67°C. La méthode EAMO extrait les lignanes des matrices végétales complètement, avec exactitude (récupération de 97.5 %), avec efficacité (rendements de 21.4 et 26.6 % plus hauts que ceux obtenus avec des méthodes conventionnelles), et avec précision (coefficients de variation pour analyses répétées < 4.03 %).Une méthode d'hydrolyse enzymatique (HE), complémentaire pour la méthode EAMO, a été développée pour la quantification généralisée des lignanes aglycones dans des échantillons végétaux. La méthode HE nécessite l'hydrolyse des extraits, obtenus par EAMO, qui contient 100 mg d'échantillons dans 3 ml de solution tampon d'acétate de sodium (0.01 M, pH 5), avec des solutions d'enzyme β-glucuronidase en concentrations de ≥ 40 U d'enzyme/mg échantillon dépendant de la capacité d'hydrolyse des différents lots d'enzymes), par incubation a 37°C pour 48 h. Les lignanes glucosides sont hydrolysés en proportion de 95.6 %. La méthode HE est recommandée pour construire des bases des données des contenus en lignanes des aliments, qui sont utiles aux chercheurs en santé et nutrition qui cherchent à évaluer les effets des apports nutritionnels des lignanes sur la santé humaine. Des modèles de réseaux de neurones artificiels (RNA) et de régression par les moindres carrés partiels (MCP), qui sont complémentaires pour la méthode EAMO, ont été calibrés pour la quantification généralisée des lignanes dans une variété d'échantillons de graines de lin. Les valeurs des lignanes estimées avec les modèles RNA et MCP ont été dans des écarts de ± 0.67 jusqu'à 4.85 % des valeurs de référence des lignanes. L'utilisation de modèles RNA et MCP nécessite d'effectuer des tests de Folin-Ciocalteu afin de mesurer l'absorption de la lumière UV-Vis des extraits a 289, 298, 343, et 765 nm. Ces modèles sont utiles aux industries de transformations des graines de lin pour quantifier avec rapidité et précision les niveaux de lignanes dans les différentes sources de matières premières à base de graines de lin.Une méthode non-automatisée, abordable et précise d'extraction sur phase solide (EPS) a été développée afin de purifier des extraits de graines de lin produits par EAMO. La méthode nécessite la préparation des extraits avant la EPS par ajustement du pH à deux reprises; premièrement au pH 3 avec de l'acide sulfurique pour enlever, par précipitation, les protéines et les hydrates de carbone qui sont solubles dans l'eau; et, deuxièmement au pH 5 avec de l'hydroxyde de soude pour améliorer la rétention des lignanes en phase solide par l'entonnoir EPS afin de réduire les pertes de lignanes dans l'eau de lavage. Des extraits produits par EAMO à partir de 0.6 et 1.5 g de farine de graines de lin dégraissée peuvent être purifiés par EPS afin de récupérer 71.2 et 60.6 %, respectivement, de la quantité des lignanes utilisée pour la purification, dans les liquides d'élution des10, 20 et 30 % d'éthanol mis en commun. Des extraits purifiés par EPS peuvent être utilisés pour tester la capacité antioxydante et la stabilité des extraits des lignanes durant leur entreposage dans des conditions variées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Virmani, Shashank Soyuz. „Entanglement quantification and local discrimination“. Thesis, Imperial College London, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.270484.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Sequeira, Dilip. „Type inference with bounded quantification“. Thesis, University of Edinburgh, 1998. http://hdl.handle.net/1842/503.

Der volle Inhalt der Quelle
Annotation:
In this thesis we study some of the problems which occur when type inference is used in a type system with subtyping. An underlying poset of atomic types is used as a basis for our subtyping systems. We argue that the class of Helly posets is of significant interest, as it includes lattices and trees, and is closed under type formation not only with structural constructors such as function space and list, but also records, tagged variants, Abadi-Cardelli object constructors, top and bottom. We develop a general theory relating consistency, solvability, and solution of sets of constraints between regular types built over Helly posets with these constructors, and introduce semantic notions of simplification and entailment for sets of constraints over Helly posets of base types. We extend Helly posets with inequalities of the form a <= tau, where tau is not necessarily atomic, and show how this enables us to deal with bounded quantification. Using bounded quantification we define a subtyping system which combines structural subtype polymorphism and predicative parametric polymorphism, and use this to extend with subtyping the type system of Laufer and Odersky for ML with type annotations. We define a complete algorithm which infers minimal types for our extension, using factorisations, solutions of subtyping problems analogous to principal unifiers for unification problems. We give some examples of typings computed by a prototype implementation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Elfverson, Daniel. „Multiscale Methods and Uncertainty Quantification“. Doctoral thesis, Uppsala universitet, Avdelningen för beräkningsvetenskap, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-262354.

Der volle Inhalt der Quelle
Annotation:
In this thesis we consider two great challenges in computer simulations of partial differential equations: multiscale data, varying over multiple scales in space and time, and data uncertainty, due to lack of or inexact measurements. We develop a multiscale method based on a coarse scale correction, using localized fine scale computations. We prove that the error in the solution produced by the multiscale method decays independently of the fine scale variation in the data or the computational domain. We consider the following aspects of multiscale methods: continuous and discontinuous underlying numerical methods, adaptivity, convection-diffusion problems, Petrov-Galerkin formulation, and complex geometries. For uncertainty quantification problems we consider the estimation of p-quantiles and failure probability. We use spatial a posteriori error estimates to develop and improve variance reduction techniques for Monte Carlo methods. We improve standard Monte Carlo methods for computing p-quantiles and multilevel Monte Carlo methods for computing failure probability.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Parkinson, Matthew. „Uncertainty quantification in Radiative Transport“. Thesis, University of Bath, 2019. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.767610.

Der volle Inhalt der Quelle
Annotation:
We study how uncertainty in the input data of the Radiative Transport equation (RTE), affects the distribution of (functionals of) its solution (the output data). The RTE is an integro-differential equation, in up to seven independent variables, that models the behaviour of rarefied particles (such as photons and neutrons) in a domain. Its applications include nuclear reactor design, radiation shielding, medical imaging, optical tomography and astrophysics. We focus on the RTE in the context of nuclear reactor physics where, to design and maintain safe reactors, understanding the effects of uncertainty is of great importance. There are many potential sources of uncertainty within a nuclear reactor. These include the geometry of the reactor, the material composition and reactor wear. Here we consider uncertainty in the macroscopic cross-sections ('the coefficients'), representing them as correlated spatial random fields. We wish to estimate the statistics of a problem-specific quantity of interest (under the influence of the given uncertainty in the cross-sections), which is defined as a functional of the scalar flux. This is the forward problem of Uncertainty Quantification. We seek accurate and efficient methods for estimating these statistics. Thus far, the research community studying Uncertainty Quantification in radiative transport has focused on the Polynomial Chaos expansion. However, it is known that the number of terms in the expansion grows exponentially with respect to the number of stochastic dimensions and the order of the expansion, i.e. polynomial chaos suffers from the curse of dimensionality. Instead, we focus our attention on variants of Monte Carlo sampling - studying standard and quasi-Monte Carlo methods, and their multilevel and multi-index variants. We show numerically that the quasi-Monte Carlo rules, and the multilevel variance reduction techniques, give substantial gains over the standard Monte Carlo method for a variety of radiative transport problems. Moreover, we report problems in up to 3600 stochastic dimensions, far beyond the capability of polynomial chaos. A large part of this thesis is focused towards a rigorous proof that the multilevel Monte Carlo method is superior to the standard Monte Carlo method, for the RTE in one spatial and one angular dimension with random cross-sections. This is the first rigorous theory of Uncertainty Quantification for transport problems and the first rigorous theory for Uncertainty Quantification for any PDE problem which accounts for a path-dependent stability condition. To achieve this result, we first present an error analysis (including a stability bound on the discretisation parameters) for the combined spatial and angular discretisation of the spatially heterogeneous RTE, which is explicit in the heterogeneous coefficients. We can then extend this result to prove probabilistic bounds on the error, under assumptions on the statistics of the cross-sections and provided the discretisation satisfies the stability condition pathwise. The multilevel Monte Carlo complexity result follows. Amongst other novel contributions, we: introduce a method which combines a direct and iterative solver to accelerate the computation of the scalar flux, by adaptively choosing the fastest solver based on the given coefficients; numerically test an iterative eigensolver, which uses a single source iteration within each loop of a shifted inverse power iteration; and propose a novel model for (random) heterogeneity in concrete which generates (piecewise) discontinuous coefficients according to the material type, but where the composition of materials are spatially correlated.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Hsing, Jeff M. (Jeff Mindy) 1972. „Quantification of myocardial macromolecular transport“. Thesis, Massachusetts Institute of Technology, 2000. http://hdl.handle.net/1721.1/9068.

Der volle Inhalt der Quelle
Annotation:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2000.
Includes bibliographical references (leaves 66-68).
The needs and impacts of drug administration have evolved from a systemic to a local focus. Local drug delivery would allow a higher local drug concentration at lower systemic toxicity than what can be achieved if delivered systemically. One of the tissues of interest for local delivery is the heart, or myocardium. Increasingly, clinicians are looking to direct myocardial delivery for therapy of complex cardiovascular diseases. Yet, there is little quantitative data on the rates of macromolecular transport inside the myocardium. A porcine model was used in this work as it is most closely similar to humans in size, structure and morphology. Using a technique previously developed in this laboratory to quantify the distribution of macromolecules, the delivery of compounds directly into the myocardium was evaluated. To make quantification generic and not specific for a particular drug or compound, fluorescent-labeled 20kDa and 150kDa dextrans were used to simulate small and large diffusing macromolecules. Diffusion in the myocardium in two directions, transmural and cross-sectional, were investigated to look at diffusion of compounds along and against the myocardium fiber orientation. Fluorescent microscopy was used to quantify concentration profiles, and then the data was fit to a simple diffusion model to calculate diffusivities. This validated the technique developed. The diffusivities of 20kDa dextran in the transmural and cross-sectional direction were calculated to be 9.49 ± 2.71 um2/s and 20.12 ± 4.10 um2/s respectively. The diffusivities for 150kDa were calculated to be 2.39 ± 1.86um 2/s and 3.23 ± 1.76um2/s respectively. The diffusivities of the two macromolecules were statistically different (p < 0.02 for transmural direction and p < 0.01 for cross-section direction). While the diffusion for the larger macromolecule was isotropic, it was not the case for the smaller one. The calculated diffusivity values in the myocardium correlated with previously published data for dextran in the arterial media, suggesting that the transport properties of the myocardium and arterial media may be similar. Applications of quantitative macromolecular transport may include developing novel therapies for cardiovascular diseases in the future.
by Jeff M. Hsing.
S.M.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Van, Zyl Jalene. „The quantification of metabolic regulation“. Thesis, Stellenbosch : Stellenbosch University, 2013. http://hdl.handle.net/10019.1/80280.

Der volle Inhalt der Quelle
Annotation:
Thesis (MSc)--Stellenbosch University, 2013.
ENGLISH ABSTRACT: Metabolic systems are open systems continually subject to changes in the surrounding environment that cause uctuations in the state variables and perturbations in the system parameters. However, metabolic systems have mechanisms to keep them dynamically and structurally stable in the face of these changes. In addition, metabolic systems also cope with large changes in the uxes through the pathways, not letting metabolite concentrations vary wildly. Quantitative measures have previously been proposed for "metabolic regulation", using the quantitative framework of Metabolic Control Analysis. However, the term "regulation" is so loosely used so that its content is mostly lost. These di erent measures of regulation have also not been applied to a model and comparably investigated prior to this study. Hence, this study analyses the usefulness of the di erent quantitative measures in answering di erent types of regulatory questions. Thus, the aim of this study was to distinguish the above mentioned aspects of metabolic regulation and to nd appropriate quantitative measures for each, namely dynamic stability, structurally stability, and homeostasis. Dynamic stability is the property of a steady state to return to its original state after a perturbation in a metabolite in the system, and can be analysed in terms of self and internal-response coe cients. Structural stability is concerned with the change in steady state after a perturbation of a parameter in the system, and can be analysed in terms of concentration-response coe cients. Furthermore, it is shown that control patterns are useful in understanding which system properties determine structural stability and to what degree. Homeostasis is de ned as the change in the steady-state concentration of a metabolite relative to the change in the steady-state ux through the metabolite pool following a perturbation in a system parameter, and co-response coe cients are proposed as quantitative measures of homeostasis. More speci cally, metabolite-ux coresponse coe cients allow the de nition of an index that quanti es to which degree a metabolite is homeostatically regulated. A computational model of a simple linear metabolic sequence subject to feedback inhibition with di erent sets of parameters provided a test-bed for the quantitative analysis of metabolic regulation. Log-log rate characteristics and parameter portraits of steady-state variables, as well as response and elasticity coe cients were used to analyse the steady-state behaviour and control properties of the system. This study demonstrates the usefulness of generic models based on proper enzyme kinetics to further our understanding of metabolic behaviour, control and regulation and has laid the groundwork for future studies of metabolic regulation of more complex core models or of models of real systems.
AFRIKAANSE OPSOMMING: Metaboliese sisteme is oop sisteme wat gedurig blootgestel word aan `n uktuerende omgewing. Hierdie uktuasies lei tot veranderinge in beide interne veranderlikes en parameters van metaboliese sisteme. Metaboliese sisteme besit egter meganismes om dinamies en struktureel stabiel te bly. Verder verseker hierdie meganismes ook dat die konsentrasies van interne metaboliete relatief konstant bly ten spyte van groot veranderinge in uksie deur die metaboliese pad waarvan hierdie metaboliete deel vorm. Kwantitatiewe maatstawwe is voorheen voorgestel vir "metaboliese regulering", gebaseer op die raamwerk van Metaboliese Kontrole Analise. Die onkritiese gebruik van die term "regulering" ontneem egter hierdie konsep van sinvolle betekenis. Voor hierdie studie is die voorgestelde maatstawwe van regulering nog nie toegepas op 'n model ten einde hulle met mekaar te vergelyk nie. Die huidige studie ondersoek die toepaslikheid van die verskillende maatstawwe om verskillende tipe vrae oor regulering te beantwoord. Die doelwit van hierdie studie was om aspekte van metaboliese regulering, naamlik dinamiese stabiliteit, strukturele stabiliteit en homeostase, te onderskei, asook om 'n gepaste maatstaf vir elk van die verskillende aspekte te vind. Dinamiese stabiliteit is 'n eienskap van 'n bestendige toestand om terug te keer na die oorspronklike toestand na perturbasie van die konsentrasie van 'n interne metaboliet. Hierdie aspek van regulering kan in terme van interne respons en self-respons koeffi siente geanaliseer word. Strukturele stabiliteit van 'n bestendige toestand beskryf die mate van verandering van die bestendige toestand nadat 'n parameter van die sisteem geperturbeer is, en kan in terme van konsentrasie-responskoeffisiente geanaliseer word. Verder wys hierdie studie dat kontrole patrone van nut is om vas te stel watter eienskappe van 'n sisteem die strukturele stabiliteit bepaal en tot watter mate. Homeostase word gede finieer as die verandering in die konsentrasie van 'n interne metaboliet relatief tot die verandering in die uksie deur daardie metaboliese poel nadat 'n parameter van die sisteem verander het. Vir die analise van hierdie aspek van regulering word ko-responskoe ffisiente as 'n maatstaf voorgestel. Meer spesi ek kan metaboliet- uksie ko-responskoeff siente gebruik word om `n indeks te de nieer wat meet tot watter mate 'n metaboliet homeostaties gereguleer word. 'n Rekenaarmatige model van 'n eenvoudige lineere metaboliese sekwens wat onderhewig is aan terugvoer inhibisie is gebruik om die verskillende aspekte van metaboliese regulering kwantitatief te analiseer met vier verskillende stelle parameters. Dubbel-logaritmiese snelheidskenmerke en parameter portrette van bestendige toestandsveranderlikes, asook van respons- en elastisiteit koeffisente is gebruik om die bestendige toestandsgedrag en kontrole eienskappe van die sisteem te analiseer. Hierdie studie demonstreer die nut van generiese modelle wat op korrekte ensiemkinetika gebaseer is om ons verstaan van metaboliese gedrag, kontrole en regulering te verdiep. Verder dien hierdie studie as grondslag vir toekomstige studies van metaboliese regulering van meer ingewikkelde kernmodelle of modelle van werklike sisteme.
National Research Foundation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Zarinabad, Nooralipour Niloufar. „Advanced quantification of myocardial perfusion“. Thesis, King's College London (University of London), 2013. https://kclpure.kcl.ac.uk/portal/en/theses/advanced-quantification-of-myocardial-perfusion(1aa4ae14-3452-4f50-bbfc-f433191f210c).html.

Der volle Inhalt der Quelle
Annotation:
Ischemic heart disease remains a major global health concern with significant morbidity and mortality issues. Identifying areas of myocardial tissue at risk early on can help guide clinical management and develop appropriate treatment strategies to prevent myocardial infarction, thus improving patient outcomes. Using the latest cardiac magnetic resonance (CMR) imaging techniques, first-pass perfusion imaging allows for a very high spatial resolution, non-invasive and radiation free quantification of myocardial blood flow (MBF). True quantification of very high resolution perfusion images offers a unique capability to localize and measure subendocardial ischemia. A common technique for calculating MBF from dynamic contrast-enhanced cardiovascular MR (DCE-CMR) is to track a bolus of contrast agent and measure MBF using fully quantitative methods. These methods which are based on central volume principle deconvolve the changes in the concentration of the injected contrast agent in the tissue with the arterial input function (AIF). However deconvolution is inherently a difficult process and therefore numerically unstable with noise contaminated data. The purpose of this study is to enable high spatial resolution voxel-wise quantitative analysis of myocardial perfusion in DCE-CMR, in particular by finding the most favourable quantification algorithm in this context. Voxel-wise quantification has the potential to combine the advantage of visual analysis with the objective and reproducible evaluation made possibly by a true quantitative assessment. Four deconvolution algorithms – Fermi function modelling, deconvolution using B-spline basis, deconvolution using exponential basis and Auto-Regressive Moving Average modelling (ARMA) were tested to calculate voxel-wise perfusion estimates. The algorithms were developed on synthetic data and validated against a true gold-standard using a hardware perfusion phantom and an explanted perfused pig heart. The accuracy of each method was assessed for different levels of spatial resolution. Moreover robustness of each deconvolution algorithm to variation in perfusion modelling parameters was evaluated. Finally, voxel-wise analysis was used to generate high resolution perfusion maps on real data acquired from healthy volunteers and patients with coronary artery disease. Both simulations and maps in the hardware phantom, explanted pig heart data and patient studies showed that voxel-wise quantification of myocardium perfusion is feasible and can be used to detect abnormal regions with high sensitivity in identifying the tissue at risk. In general ARMA and the exponential method showed to be more accurate, on the other hand, Fermi model was the most robust method to noise with highest precision for voxel-wise analysis. Inevitably the choice of quantification method for data analysis boils down to a trade-off between accuracy and precision of the estimation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie