Dissertations / Theses on the topic 'BSS techniques'

To see the other types of publications on this topic, follow the link: BSS techniques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'BSS techniques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Li, Kun. "Advanced Signal Processing Techniques for Single Trial Electroencephalography Signal Classification for Brain Computer Interface Applications." Scholar Commons, 2010. http://scholarcommons.usf.edu/etd/3484.

Full text
Abstract:
Brain Computer Interface (BCI) is a direct communication channel between brain and computer. It allows the users to control the environment without the need to control muscle activity [1-2]. P300-Speller is a well known and widely used BCI system that was developed by Farwell and Donchin in 1988 [3]. The accuracy level of the P300-BCI Speller as measured by the percent of communicated characters correctly identified by the system depends on the ability to detect the P300 event related potential (ERP) component among the ongoing electroencephalography (EEG) signal. Different techniques have been tested to reduce the number of trials needed to be averaged together to allow the reliable detection of the P300 response. Some of them have achieved high accuracies in multiple-trial P300 response detection. However the accuracy of single trial P300 response detection still needs to be improved. In this research, two single trial P300 response classification methods were designed. One is based on independent component analysis (ICA) with blind tracking and the other is based on variance analysis. The purpose of both methods is to detect a chosen character in real-time in the P300-BCI speller. The experimental results demonstrate that the proposed methods dramatically reduce the signal processing time, improve the data communication rate, and achieve overall accuracy of 79.1% for ICA based method and 84.8% for variance analysis based method in single trial P300 response classification task. Both methods showed better performance than that of the single trial stepwise linear discriminant analysis (SWLDA), which has been considered as the most accurate and practical technique working with P300-BCI Speller.
APA, Harvard, Vancouver, ISO, and other styles
2

Salido-Ruiz, Ricardo Antonio. "Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0403/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe
This thesis concerns the issue of scalp EEG signals pre-processing and it is focused on signal's disturbances caused by non zero reference measurements. These signals perturbations induced by an electrical fluctuation of reference signal can lead to misinterpretation errors in certains analysis. This can be easily seen in inter-signal synchronization measurements such as in coherence studies. Thus, the ideal reference is a null reference. During this research work, we focused on the absolute (zero-reference) potentials estimation from a inverse problem reformulation. Here, two cases are treated, one deals with the case of a reference signal that is sufficiently distant from electrophysiological brain sources so, it is considered as independent signal ; otherwise, it is modeled as a linear combination of sources. Thanks to this modeling, it was shown explicitly that the best estimates of absolute potentials without any a priori information are the average reference potentials. On the other hand, the source-independent reference inverse problem is resolved in a source separation context. For this case, it has been shown that the best estimate of the absolute potentials without any a priori information is equivalent to Minimum Power Distortionless Response/Minimum Variance Distortionless Response (MVDR/MPDR) estimators. On the pretreatment of EEG data, we show on simulated and real signals that measured potentials transformed into average reference improve certain analytical methods used in EEG such as blind source separation (BSS) and localization of brain sources. Beyond the problems of reference, this method can be applied as a constrained source estimation algorithm in order to estimate in a more robust way, particular sources such as artifacts or deterministic exogenous electrical stimulation
APA, Harvard, Vancouver, ISO, and other styles
3

Ousley, Larry James. "Solo Techniques for Unaccompanied Pizzicato Jazz Double Bass." Scholarly Repository, 2008. http://scholarlyrepository.miami.edu/oa_dissertations/96.

Full text
Abstract:
The purpose of this study was to research and demonstrate various techniques that a double bassist may utilize when performing an unaccompanied solo in a jazz setting. This study primarily focused on pizzicato (plucked) styles and sought to maximize the polyphonic potential of the double bass, which has traditionally been considered a homophonic instrument. This study provides a written, organized approach that illustrates recorded examples and augments private instruction for the double bass. This study offers a vocabulary of techniques comprising chords and intervals that allow the double bassist to accompany oneself. It uses an intervallic approach to determining practical ways of voicing chords and accompanying melodic statements. Specific songs from the standard repertoire were chosen to demonstrate self-accompaniment techniques in the contexts of melodic and harmonic movement. Recorded examples are provided that show how specific bassists successfully used certain techniques in the context of songs. Bassists that were examined include Ray Brown, Niels-Henning Orsted Pedersen, Dave Holland, Charlie Hayden, Ron Carter, Edgar Meyer, Lynn Seaton, and David Friesen.
APA, Harvard, Vancouver, ISO, and other styles
4

Meyer, Mariechen. "Contemporary Double Bass Techniques: An Advanced Technical Approach." Thesis, University of North Texas, 2018. https://digital.library.unt.edu/ark:/67531/metadc1157540/.

Full text
Abstract:
Diverse practicing methods are evidence of the importance of applying creativity in our practice regimes. Regardless of a player's technique - traditional or modern - it must be regularly practiced and then applied. One of the most common ways to do that is through practicing technical exercises, which generally means the practice of scales, arpeggios and etudes. These exercises generally function as a warm-up regime for all musicians, but this regime doesn't necessarily provide enough reference for the player in the learning process of a new piece. Adapting exercises to address technical difficulties in a newly learned piece can provide the player with a wide range of practice methods to use, to be creative, to be more aware while practicing, and to build a solid technical foundation for the newly learned piece. Two well-known pedagogues who applied this approach are German bassist Ludwig Streicher and Czech violinist Otakar Ševčik. By implementing analytical studies and composing exercises based on the standard repertoire, Ševčik and Streicher became highly influential teachers in the 20th century. Their work serves as a model in achieving the purposes of this dissertation: the assessment of technical difficulties and compilation of a technique booklet based on six unaccompanied contemporary solo pieces written as required works for the solo competition of the International Society of Bassists' biennial convention since 2007.
APA, Harvard, Vancouver, ISO, and other styles
5

Sharpe, Chris M. "A Modern Pedagogical Method for Developing Valve Technique on Independent Double Valve Bass Trombone." Thesis, University of North Texas, 2019. https://digital.library.unt.edu/ark:/67531/metadc1609158/.

Full text
Abstract:
The modern bass trombone has undergone many changes in design since the 1960s and a student beginning on or switching to bass trombone today needs pedagogical material that methodically addresses the many valve combinations available on an independent double valve bass trombone. The existing books for bass trombone contain useful exercises, but none of the currently available books address all the valve combinations and patterns that are helpful for developing proficient valve technique on bass trombone. Therefore, I created a new bass trombone double valve technique method book that includes a thorough exploration of the bass trombone's two valves within the context of scales, scale exercises, and original material specifically designed to be applicable to common literature for the bass trombone.
APA, Harvard, Vancouver, ISO, and other styles
6

Lemmers, Alan. "Techniek op schaal : modellen en het technologiebeleid van de Marine 1725-1885 /." Amsterdam : de Bataafsche leeuw, 1996. http://catalogue.bnf.fr/ark:/12148/cb39283502d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Ilenda, Mbemba. "Impact de l'éducation sur les comportements techniques des agriculteurs : le cas du Bas-Zaïre (Zaïre)." Doctoral thesis, Université Laval, 1988. http://hdl.handle.net/20.500.11794/29292.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Everall, Philip. "A digital resource for navigating extended techniques on bass clarinet." Thesis, Edith Cowan University, Research Online, Perth, Western Australia, 2016. https://ro.ecu.edu.au/theses/1940.

Full text
Abstract:
Extended techniques are integral to the creation and interpretation of works for the bass clarinet. Effects such as multiphonics, microtones, or percussive and air sounds, have become commonplace in repertoire from the twentieth and twenty-first centuries. This PhD dissertation posits that the bass clarinet’s affinity for these sounds can be traced back to the instrument’s earliest uses, and thus extended techniques should be central to the understanding of the bass clarinet. While there is a large knowledge-base of these techniques, the paradigm of print resources with accompanying music media in which it is catalogued is old-fashioned and inefficient. This project centres around the creation of a digital resource (an iPad application) that allows performers and composers access to this body of information in a format that is portable, powerful, and intuitive. It strives to organise the information in more efficient and useful ways, to present it elegantly, and to facilitate quick and intelligent methods of retrieval. The app can also be used as an educative tool enabling performers and composers to more quickly obtain mastery of this material. The efficacy of the app is demonstrated through a lecture recital and accompanying exegetical discussion explicating the ways that the app can add (or could have added) value in the composition, notation, learning, and performance of the works presented.
APA, Harvard, Vancouver, ISO, and other styles
9

Tremblay, Yves. "Histoire sociale et technique de l'électrification au Bas-Saint-Laurent, 1888-1963." Doctoral thesis, Université Laval, 1993. http://hdl.handle.net/20.500.11794/29274.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Bystritskaya, Alina. "La technique pour la contrebasse de François Rabbath." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO20012.

Full text
Abstract:
François Rabbath a maintenant plus de 80 ans ; il sillonne toujours le monde en tant que soliste et professeur. Sa contribution majeure à la pédagogie de la contrebasse est sa méthode en 4 volumes : La nouvelle technique de la contrebasse. Sa méthode est une nouvelle approche de l'enseignement de la contrebasse.Pour F. Rabbath, la qualité de la musique depend de : l'instrument, les cordes, l'archet, la position des mains.Sa contrebasse datée de 1936, a été fabriquée par Ch. Quenoil. C'est un instrument pour les solistes aux petites épaules, mais par sa sonorité est ample comme celle d'un instrument de l'orchestre, l'ampleur qui se combine avec la facilité de jeu d'une petite contrebasse.En s'intéressant à la pique comme à un axe d'équilibre entre le bas et la tête de l'instrument, il découvrit aussi que le matériau dont la pique est construite permet d'avoir plus ou moins de vibrations.Le luthier Ch. Laborie avec F. Rabbath ont eu l'idée d'une solution élégante, une tige de carbone mise directement en bas de la contrebasse dans l'angle précis. Cette nouvelle version de la pique s'appelle la « pique Rabbath-Laborie ».Gerold Genßler (chef d'une entreprise allemande indépendante de fabrication de cordes) demanda de l'aide à F. Rabbath pour découvrir le son d'une nouvelle corde ; F. Rabbath joua ensuite avec ces cordes.Dans la Nouvelle technique de la contrebasse, F. Rabbath a divisé la touche en 6 positions, définies en fonction de l'harmonie naturelle des cordes. Cela vient de l'utilisation élargie du placement des doigts, non pas de l'extension du mouvement. Cela vient aussi de l'élargissement de la main pour atteindre de nouvelles notes : F. Rabbath appelle cette technique pivot. Le joueur peut utiliser par exemple la position 1, 2 ou 3, sans forcément bouger la main, mais seulement en plaçant le pouce à la bonne place, et en remuant la main d'avant en arrière. Cette méthode de pivot permet la succession de différentes positions.La technique du crabe découverte par F. Rabbath est constituée par le mouvement de la main qui ressemble à la marche d'un crabe, de côté. Il permet à une partie de cette main de bouger lorsque l'autre est immobile, puis inversement. Ainsi elle peut monter et descendre le long de la corde dans certains passages sans changer de position.F. Rabbath a développé un nombre important de variation de coups d'archet. Cette méthode est différentes des autres qui se concentrent sur certains segments de la contrebasse plutôt qu'uniquement sur la touche.F. Rabbath a travaillé sur la théorie qui contribue au développement de la méthode d'enseignement de la contrebasse, à travers ses années d'enseignement et sa riche expérience, il donne plus d'importance à la relation entre l'interprétation et l'éducation. Dans cette méthode, il développe l'art d'être un artiste et son désir de partager sa passion de la contrebasse
Although F. Rabbath is more than 80 years old, he goes on traveling all over the world as a soloist and as a teacher. The major contribution of the double-bass pedagogy is the method of the double-bass playing published in the four volumes of the Nouvelle technique de la contrebasse (trad. New Technique of double-bass).His Nouvelle technique de la contrebasse is a new approach to double-bass playing in the pedagogy of this instrument. For F. Rabbath, to get a good quality of music all is important : the sound of the instrument, of the string, of the bow and also the position of the hands, etc.His double-bass was built by Charles Quenoil in 1936. It is the instrument for soloists with « small shoulders », and with a pitch like an orchestral instrument. It seems that this form combines the size of an orchestral instrument sound with the easiness of the playing of a small double-bass.F. Rabbath discovered how the endpins influence the playing. By focusing on the endpins as a balance between the bottom and top of the instrument, he also discovered how the material used for endpins allows more or less vibrations.He and Christian Laborie « took the idea to an elegant solution with a graphite rod installed directly into the end block at the proper angle.1» The new and improved version is called The Rabbath-Laborie Endpin. Gerold Genßler, germany independent production, asked F. Rabbath for help discovered the new string sound. After his production, F. Rabbath play with these strings. In Nouvelle technique de la contrebasse F. Rabbath divided the fingerboard into six positions, defined by the location of natural harmonics on the strings. This is done by using extension fingerings, not extensions with shifts. It is an extension where there is a widening of the hand to reach a new note. F. Rabbath called this technique « pivot ».The player can use for example first, second, third positions without the need for shifts but only by placing the thumb in an appropriate place and just rocking the hand back and forth. Thus, the pivot method enables the succession of several different positions. The « Crab Technique », is another technique discovered by Francois Rabbath. The hand movement resembles a crab's sideways walking : allows for part of the hand to move while the other part remains and vice versa - in this way the hand can move up and down the strings in certain passages without ever fully shifting. F. Rabbath has also developed a number of bowing variations, from whole notes to even faster, middle, tip, and then middle parts of the bow.F. Rabbath works on the theory contributes to the development of the teaching methodology of the double-bass. Over the years has been, still is, teaching the importance of the movement and the position of the body, more than musical. For him, this is the base towards good interpretation of any level of music.In his method François Rabbath also develops his art of being an artist and the desire to share and pass his passion for the double-bass
APA, Harvard, Vancouver, ISO, and other styles
11

Plyer, Aurélien. "Architectures massivement parallèles en vision artificielle bas niveau." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_plyer.pdf.

Full text
Abstract:
Ce travail de thèse étudie l'apport à la vision bas-niveau des architectures de calcul massivement parallèles. Nous reprenons l'évolution récente de l'architecture des ordinateurs, en mettant en avant les solutions massivement parallèles qui se sont imposées récemment, les GPU. L'exploitation des potentialités de ces architectures impose une modification des méthodes de programmation. Nous montrons qu'il est possible d'utiliser un nombre restreint de schémas ("patterns") de calcul pour résoudre un grand nombre de problématiques de vision bas niveau. Nous présentons ensuite un nouveau modèle pour estimer la complexité de ces solutions. La suite du travail consiste à appliquer ces modèles de programmation à des problématiques de vision bas-niveau. Nous abordons d'abord le calcul du flot optique, qui est le champ de déplacement d'une image à une autre, et dont l'estimation est une brique de base de très nombreuses applications en traitement vidéo. Nous présentons un code sur GPU, nommé FOLKI qui permet d'atteindre une très bonne qualité de résultats sur séquences réelles pour un temps de calcul bien plus faible que les solutions concurrentes actuelles. Une application importante de ces travaux concerne la vélocimétrie par imagerie de particules dans le domaine de la mécanique des fluides expérimentale. La seconde problématique abordée est la super-résolution (SR). Nous proposons d'abord un algorithme très rapide de SR utilisant le flot optique FOLKI pour recaler les images. Ensuite différentes solutions à coût de calcul croissant sont développées, qui permettent une amélioration de précision et de robustesse. Nous présentons des résultats très originaux de SR sur des séquences affectées de mouvement complexes, comme des séquences de piétons ou des séquences aériennes de véhicules en mouvement. Enfin le dernier chapitre aborde rapidement des extensions en cours de nos travaux à des contextes de mesure 3D, dans des domaines comme la physique expérimentale ou la robotique
In this work we study the gain offered by massively parallel architecture for low-level vision processing. Reviewing the recent evolutions of computer architectures, we underline the massively parallel solutions which are now available to every programmer, the GPU. Exploiting the computing power of these solutions requires a change in programming methodology. However, as far as low-level vision is concerned, we show that most problems can be solved using a restricted number of programming patterns. Finally, we propose a new model to evaluate the complexity of solutions developed on GPUs. Then we apply these programming principles to various low-level vision problems. The first one is optical flow (OF) estimation, which is at the core of many video processing problems. We present an OF estimation on GPU, called FOLKI, which allows good estimation quality on various real-world video sequences with unprecedented computing performance. An application of this work concerns particle image velocimetry, a measurement technique of paramount importance for experimental fluid mechanics. Then we turn toward super-resolution (SR). We first introduce an original and very fast solution, which uses the FOLKI optical flow estimate for image registration. Then various solutions of increasing computational complexity are proposed, which lead to better resolution and robustness. Using these techniques we show very original SR results on video with complex motions (walking person, moving vehicle). Finally the last chapter shows on-going work on 3D measurement contexts in experimental physics and robotics
APA, Harvard, Vancouver, ISO, and other styles
12

Alkhoven, Patricia. "The changing image of the city : a study of the transformation of the townscape using computer-aided architectural design and visualization techniques : a case study, Heusden /." [Alphen-aan-den-Rijn] : Canaletto, 1993. http://catalogue.bnf.fr/ark:/12148/cb38976086g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Collen, Patrice. "Techniques d'enrichissement de spectre des signaux audionumériques." Phd thesis, Télécom ParisTech, 2002. http://pastel.archives-ouvertes.fr/pastel-00000512.

Full text
Abstract:
Afin de limiter les dégradations liées au codage bas-débit des signaux audionumériques, la stratégie adoptée par la plupart des systèmes de compression de parole et de musique consiste à ne pas transmettre le contenu hautes-fréquences. C'est ainsi qu'aux environs des 20kbit/s, les codeurs de musique actuels ne restituent pas les sons avec leur qualité naturelle (leur bande passante étant limitée aux environs des 6kHz). Les sons ainsi codés/décodés deviennent ternes et perdent de leur qualité. On se propose d'étudier dans cette thèse de nouvelles techniques susceptibles de palier à cette perte des aigus. Les systèmes d'enrichissement de spectre permettent, avec très peu de données additionnelles, de rehausser la bande passante, et donc la qualité de ces signaux à bande-limitée. Le principe de ces techniques consiste à exploiter les informations comprises dans le spectre basse-fréquence afin de synthétiser le signal pleine-bande de qualité proche de celle de l'original. Dans le cadre d'un contrat financé par France Télécom R&D , l'objectif de cette thèse est la réalisation d'un système d'enrichissement de spectre des signaux audionumériques (parole et musique). La technique PAT (Perceptual Audio Transposition) implémentée a fait l'objet de deux propositions de normalisation dans les instances DRM (Digital Radio Mondiale) et MPEG-4 (Moving Picture Experts Group). Le document est structuré en 4 parties. La première partie s'attache à introduire les principes de l'extension de bande en se fondant sur les propriétés psychoacoustiques et les caractéristiques des signaux audio mis en jeux. Grâce à cette étude préalable, l'enrichissement des signaux sonores est réalisé en deux étapes: une étape d'extension de la structure fine du spectre et une étape d'ajustement de l'enveloppe, qui font l'objet des deux chapitres suivants. Ainsi, la seconde partie est consacrée aux techniques d'estimation, de transmission et d'ajustement d'enveloppe spectrale. Deux techniques particulières sont développées: L'une basée sur la prédiction linéaire et l'autre sur la modélisation d'enveloppe par facteurs d'échelle dans le domaine fréquentiel. Dans la troisième partie, les différentes solutions permettant d'étendre la structure fine spectrale sont abordées. L'étude s'est portée notamment sur les translations de spectre dans le domaine fréquentiel et sur les distorsions non-linéaires. Enfin, en quatrième partie, on présente un schéma complet d'enrichissement de spectre avant d'en évaluer ses performances dans le cadre de la normalisation MPEG-4. Une toute nouvelle technique de compression des signaux audionumériques est ainsi introduite dans cette thèse. Celle-ci a montré un réel intérêt dans le domaine de la compression du son. Pour une qualité équivalente, la réduction de débit obtenue est de l'ordre de 25%.
APA, Harvard, Vancouver, ISO, and other styles
14

González, Marcos Tulio Amarís. "Performance prediction of application executed on GPUs using a simple analytical model and machine learning techniques." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-06092018-213258/.

Full text
Abstract:
The parallel and distributed platforms of High Performance Computing available today have became more and more heterogeneous (CPUs, GPUs, FPGAs, etc). Graphics Processing Units (GPU) are specialized co-processor to accelerate and improve the performance of parallel vector operations. GPUs have a high degree of parallelism and can execute thousands or millions of threads concurrently and hide the latency of the scheduler. GPUs have a deep hierarchical memory of different types as well as different configurations of these memories. Performance prediction of applications executed on these devices is a great challenge and is essential for the efficient use of resources in machines with these co-processors. There are different approaches for these predictions, such as analytical modeling and machine learning techniques. In this thesis, we present an analysis and characterization of the performance of applications executed on GPUs. We propose a simple and intuitive BSP-based model for predicting the CUDA application execution times on different GPUs. The model is based on the number of computations and memory accesses of the GPU, with additional information on cache usage obtained from profiling. We also compare three different Machine Learning (ML) approaches: Linear Regression, Support Vector Machines and Random Forests with BSP-based analytical model. This comparison is made in two contexts, first, data input or features for ML techniques were the same than analytical model, and, second, using a process of feature extraction, using correlation analysis and hierarchical clustering. We show that GPU applications that scale regularly can be predicted with simple analytical models, and an adjusting parameter. This parameter can be used to predict these applications in other GPUs. We also demonstrate that ML approaches provide reasonable predictions for different cases and ML techniques required no detailed knowledge of application code, hardware characteristics or explicit modeling. Consequently, whenever a large data set with information about similar applications are available or it can be created, ML techniques can be useful for deploying automated on-line performance prediction for scheduling applications on heterogeneous architectures with GPUs.
As plataformas paralelas e distribuídas de computação de alto desempenho disponíveis hoje se tornaram mais e mais heterogêneas (CPUs, GPUs, FPGAs, etc). As Unidades de processamento gráfico são co-processadores especializados para acelerar operações vetoriais em paralelo. As GPUs têm um alto grau de paralelismo e conseguem executar milhares ou milhões de threads concorrentemente e ocultar a latência do escalonador. Elas têm uma profunda hierarquia de memória de diferentes tipos e também uma profunda configuração da memória hierárquica. A predição de desempenho de aplicações executadas nesses dispositivos é um grande desafio e é essencial para o uso eficiente dos recursos computacionais de máquinas com esses co-processadores. Existem diferentes abordagens para fazer essa predição, como técnicas de modelagem analítica e aprendizado de máquina. Nesta tese, nós apresentamos uma análise e caracterização do desempenho de aplicações executadas em Unidades de Processamento Gráfico de propósito geral. Nós propomos um modelo simples e intuitivo fundamentado no modelo BSP para predizer a execução de funções kernels de CUDA sobre diferentes GPUs. O modelo está baseado no número de computações e acessos à memória da GPU, com informação adicional do uso das memórias cachês obtidas do processo de profiling. Nós também comparamos três diferentes enfoques de aprendizado de máquina (ML): Regressão Linear, Máquinas de Vetores de Suporte e Florestas Aleatórias com o nosso modelo analítico proposto. Esta comparação é feita em dois diferentes contextos, primeiro, dados de entrada ou features para as técnicas de aprendizado de máquinas eram as mesmas que no modelo analítico, e, segundo, usando um processo de extração de features, usando análise de correlação e clustering hierarquizado. Nós mostramos que aplicações executadas em GPUs que escalam regularmente podem ser preditas com modelos analíticos simples e um parâmetro de ajuste. Esse parâmetro pode ser usado para predizer essas aplicações em outras GPUs. Nós também demonstramos que abordagens de ML proveem predições aceitáveis para diferentes casos e essas abordagens não exigem um conhecimento detalhado do código da aplicação, características de hardware ou modelagens explícita. Consequentemente, sempre e quando um banco de dados com informação de \\textit esteja disponível ou possa ser gerado, técnicas de ML podem ser úteis para aplicar uma predição automatizada de desempenho para escalonadores de aplicações em arquiteturas heterogêneas contendo GPUs.
APA, Harvard, Vancouver, ISO, and other styles
15

Lescot, Jack. "Contribution à l'étude des series de Bass." Caen, 1985. http://www.theses.fr/1985CAEN2030.

Full text
Abstract:
Soient r un anneau unitaire commutatif local noetherien de corps residuel k, et m un r-module de type fine. Contribution a l'etude de deux series formelles associees a m, la serie de poincare: p::(r)**(m)(t)=sigma ::(i >ou= o) dim::(k) tor::(i)**(r)(m, k)t**(i) et la serie de bass: i::(r)**(m)(t)=sigma ::(i >ou= o) dim::(k) ext::(r)**(i)(k, m)t**(i). Soit f:s->r un homomorphisme local surjectif. Etude de la famille des r-modules dont les series de poincare verifient p::(r)**(m)(t)/p::(r)**(k)(t)=p::(s)**(m)(t)/p::(s)**(k)(t). Obtention d'un theoreme de reduction au cas artenien pour les series de bass. Calcul des series de poincare et de bass de certains produits fibres d'anneaux. Etude d'un produit homologique associe a m. Obtention de relations entre la serie de bass de m et celles de ces modules de syzygie. Obtention de formules de changement d'anneaux par certains homomorphismes de golod pour les series de bass. Etude du comportement asymptotique des dim::(k) tor::(i)**(r)(m, k) sur certains anneaux
APA, Harvard, Vancouver, ISO, and other styles
16

Ren, Qiming. "Linearization techniques for high efficient mobile communication transmitters /." Düsseldorf : VDI-Verl, 1999. http://www.gbv.de/dms/bs/toc/302102132.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Martin-Herrero, Julio. "Techniques de bas niveau en traitement d'images pour la télédetection des milieux non homogènes." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13166.

Full text
Abstract:
La télédétection vise à acquérier l'information sur des cibles en étudiant leur réponse aux ondes électromagnétiques. Et partout nous rencontrons des milieux non homogènes et des composites. Connaître comment ces milieux non homogènes répondent à la sonde de télédétection est de la plus grande importance pour la praticabilité même de la télédétection. Le comportement macroscopique d'un composite peut s'exprimer en fonction des caractéristiques macroscopiques de ses constituants, mais d'une manière complexe incluant la géométrie de leur arrangement. Si nous pouvons obtenir le tenseur diélectrique efficace d'un composé, nous pouvons modéliser sa réponse au champ électromagnétique, et donc sa réponse comme cible de télédétection. La nécessité pour inclure la géométrie détaillée du système d'une façon efficace dans des méthodes numérique, ainsi qu'une équivalence entre les images numériques et les modèles de treillis des composites, suggère le recours aux techiques de bas niveau de traitement d'images numériques. Le cadre de cette thèse est le traitement numérique d'un problème général de télédétection fondée sur le problème électromagnétique d'homogénéisation dans des microstructure. Dans ce contexte, deux techniques de traitement d'images de bas niveau sont présentées, à savoir, une nouvelle méthode pour l'étiquetage des composantes connexes, présentant des améliorations significatives par rapport aux méthodes existantes, et une méhode de codage des configurations locales avec plusieurs caractéristiques la rendant appropriée pour des applications variées. Leurs avantages sont discutés, et des exemples d'application sont fournis au-delà du domaine spécifique étant à leur origine, comme la vision artificielle, le codage d'image, ou encore la synthèse d'image
APA, Harvard, Vancouver, ISO, and other styles
18

Yeager, Jonathan K. "Interpretive performance techniques and lyrical innovations on the bass trombone a study of recorded performances by George Roberts, Mr. Bass Trombone /." Thesis, connect to online resource, 2006. http://www.unt.edu/etd/all/Dec2006/Open/yeager_jonathan/index.htm.

Full text
Abstract:
Thesis (D.M.A.)--University of North Texas, 2006.
System requirements: Adobe Acrobat Reader. Accompanied by 4 recitals, recorded Nov. 12, 2001, Oct. 14, 2002, Mar. 31, 2003, and Oct. 17, 2006. Includes bibliographical references (p. 80-82).
APA, Harvard, Vancouver, ISO, and other styles
19

Grönberg, Andreas. "Bow with Flow : Möjligheterna och svårigheterna i stråkspel på kontrabas inom jazz." Thesis, Luleå tekniska universitet, Institutionen för konst, kommunikation och lärande, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-79217.

Full text
Abstract:
Jag har länge tyckt att soundet från en stråke är häftigt. Det finns inspelningar med jazzstråk, men det är inte jättevanligt och jag undrade varför. Är det för att det finns för många svårigheter att hantera med stråken? Eller var det kanske så att det fanns massor med möjligheter som inte många tog vara på? Syftet i mitt arbete har varit att ta reda på vad det finns för möjligheter och svårigheter med att spela stråke på kontrabas i jazzmusik. I arbetsprocessen har jag valt ut låtar och spelat in dessa låtar med ett band bestående av trummor, el-gitarr, tenor saxofon och viola. Sedan har jag skickat låtarna till verksamma stråkbassister så att de kan kommentera och ge tips. Utifrån kommentarerna, tipsen och min egna analys av låtarna har jag gjort övningar som har gjort att jag på bättre sätt har kunnat ta vara på möjligheterna och hantera svårigheterna. De tankar jag hade i början av arbetet angående vad som skulle vara möjligheterna med stråken och vad som skulle vara svårigheterna har visat sig i vissa fall inte stämma alls, i vissa fall stämma delvis och i vissa fall stämde de helt. Ett exempel är att jag tänkte i början av arbetet att få till bra rytmer skulle vara en svårighet, dock visade sig rytmer även vara en möjlighet då man kan ha större rytmisk variation med stråken än med fingrarna eftersom man kan hålla ut en ton längre med stråken.
For a long time I have been thinking that the sound of a bowed tone is cool. There are recordings of music with jazz bowing, but it is not very common and I wondered why. Is it because there are too many difficulties with bowplaying? Or are there a lot of opportunities that only a few bass players take advantage of? The aim of my thesis is to figure out what the difficulties and the opportunities with bow playing on the double bass are in jazz music.  In my research process I have chosen a couple of songs, rehearsed and recorded them with a band including drums, guitar, tenor saxophone and viola. After each recording session, I sended the recordings to a couple of active bow playing bass musicians, which answered with comments and advices.  Based on the advices and my own analysis of the songs, I did exercises that taught me how to handle the difficulties and how to fully use the opportunities with bow playing in jazz music.  In the beginning of the project I had some thoughts about what the opportunities and difficulties would be. Some of the thoughts came out to be, in some cases incorrect, in some cases partly correct and in some cases fully correct.  An example is that, beginning my research I thought that playing rhythms with a bow would be difficult, but as it turned out, playing rhythms could also be an opportunity. I then could use more versatile rhythms than with my finger, since the bow allows me to hold a tone for a longer time.
APA, Harvard, Vancouver, ISO, and other styles
20

Costa, Maria. "Segmentation de structures anatomiques du bas abdomen à l'aide de surfaces déformables 3D." Paris, ENMP, 2008. http://pastel.archives-ouvertes.fr/pastel-00003832.

Full text
Abstract:
Chaque cadre doit contenir un résumé de 1000 caractères maximum, espaces compris. En cas de dépassement, la coupure sera automatique. Le doctorant adressera son texte sous forme électronique (disquette, etc. ) Pour les modalités pratiques, contactez votre bibliothèques. Le principal objectif de cette thèse est la conception et la production d'outils à destination des radiologues pour la délinéation des organes à risque dans le cadre du traitement par radiothérapie du cancer de la prostate. Les images passées entrées sont des images CT. Elles sont d'abord placées dans un repère commun à l'aide d'un recalage log-euclidien concentré sur les structures osseuses du pubis. Une suite progressive de traitements est ensuite appliquée: dans un premier temps, la vessie est segmentée, puis la prostate est ensuite localisée paralellement à la vessie, pour finir avec l'intégration de la délinéation du rectum. Compte tenu de l'hétérogénéité des images de la base de données sur laquelle nous avons travaillé, notre contribution principale est la flexibilité. La vessie est une structure à forte variabilité en termes de forme et d'intensité, notamment à cause du degré de remplissage et la présence ou l'absence d'un produit de contraste. La méthode proposée s'adapte non seulement aux formes très différentes des vessies de notre base de donnée, mais aussi au degré de replissage donnant lieu, dans le cas ou un produit de contraste a été administré, une h'etérogénéité notable dans la structure à segmenter. Le contraste de la prostate avec les tissus environnants est quasi-nul; son interface avec la vessie est souvent très difficile à distinguer, même par les experts médicaux. L'incorporation d'informations anatomiques sur la forme et d'informations images, couplée à une nouvelle contrainte d'interaction entre deux maillages, permet d'obtenir une bonne segmentation de la prostate et d'éliminer les ambiguités au niveau de l'interface entre les deux structures. L'incorportation du rectum est l'étape la plus délicate: les différences entre les protocoles d'acquisition de la base de données utilisée interdisent toute modélisation de l'intérieur du rectum: présence de matières fécales, insuflation d'air, présence d'un produit de contraste, présence d'une sonde etc. Les hypotheses faites sur les tissus connexes au rectum ainsi qu'une nouvelle contrainte tubulaire couplée a une pré-segmentation du squelette du rectum permettent d'obtenir un résultat probant. La chaîne de traitement qui a conduit a l'élaboration de cette thèse est en cours d'incorporation dans le logiciel Isogray produit par DOSIsoft, ce qui permet une validation plus approfondie dans des conditions cliniques
The main objective of this thesis is to provide radio--oncology specialists with automatic tools for delineating organs at risk of a patient undergoing a radiotherapy treatment of prostate tumors. In order to achieve this goal, we work with CT Scan images. The images are first put in a common frame of reference by means of locally--affine registration based on the pelvic bone structures. A progressive approach consisting of three stages is then applied: the bladder is first delineated, the prostate is later included, and the rectum segmentation is finally integrated. Given the highly heterogenous nature of the images in our database, our contribution for the segmentation process is centered on emph{flexibility}. The bladder is a highly variable structure, both in terms of shape (fillings, compression by surrounding organs) and of intensity levels, the latter due to inhomogeneities caused by the presence or absence (to various levels) of a contrast agent. We propose a segmentation approach that is able to automatically adapt both to the shape and, most remarkably, to the intensity variability. The prostate shows no distinct "edge" in the image itself; its interface with the bladder is often very difficult (if not impossible) to discern, even for the trained eye of medical experts. We have incorporated anatomical information and taken the intensity similarities into account in our approach to contour this structure. An original non--overlapping constraint optimizes the result in terms of image and shape prior information, in order to avoid ambiguities in the delineation of the common boundaries. Finally, the rectum is incorporated in the segmentation. Different acquisition protocols for the CT scans result in images containing rectums with very different characteristics in terms of shape and intensity (due to filling level and nature, air insufflation, contrast agent, etc. ). A flexible method that makes no assumptions about the interior of the structure has been developped and thoroughly tested. The developments that resulted from this thesis have been incorporated to the Isogray software by DOSIsoft, allowing further validation in clinical conditions
APA, Harvard, Vancouver, ISO, and other styles
21

Goetz, Christian. "IRM bas champ : Développement d'un système pour son intégration en imagerie multimodale in vivo du petit animal." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/GOETZ_Christian_2006_1.pdf.

Full text
Abstract:
Nous avons développé un dispositif d’imagerie RMN bas champ à partir de cartes industrielles et développé des outils logiciels constituant un ensemble d’imagerie préclinique doté d’une interface simple. Les signaux RMN sont numérisés avec une technique passe bande compatible avec un échantillonnage direct. L’absence d’interactions électromagnétiques de l’imageur RMN à bas champ permet une intégration avec les autres modalités d’imagerie du petit animal dont nous disposons. Nous avons développé une cellule d’imagerie dédiée isolant l’animal de l’environnement et un logiciel de surveillance continue des paramètres physiologiques. Nous démontrons l’intérêt de la cellule pour le maintien de l’homéostasie et le transfert stéréotaxique pour l’imagerie multimodale IRM bas champ couplée avec une acquisition scintigraphique monophotonique. Les résolutions spatiales obtenues in vivo pour l’animal normal après recalage et fusion sont comprises entre 500x500x500 μm pour l’IRM et 800x800x800 μm pour la scintigraphie.
APA, Harvard, Vancouver, ISO, and other styles
22

Goetz, Christian Auwerx Johan Constantinesco André. "IRM bas champ développement d'un système pour son intégration en imagerie multimodale in vivo du petit animal /." Strasbourg : Université Louis Pasteur, 2006. http://eprints-scd-ulp.u-strasbg.fr:8080/632/02/goetz_1200ppp.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Bowzer, John Cory. "Evaluation of aquaculture techniques to improve growth and health of Ohio sport fish, sunshine bass (Morone chrysops x M. saxatilis) and walleye Sander vitreus." The Ohio State University, 2010. http://rave.ohiolink.edu/etdc/view?acc_num=osu1282761774.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Bonacossa, Federico. "Materials and Techniques in D’improvviso da immobile s’illumina, for Bass Clarinet, Two Orchestras, Piano and Percussion." FIU Digital Commons, 2013. http://digitalcommons.fiu.edu/etd/989.

Full text
Abstract:
D’improvviso da immobile s’illumina is a concerto for bass clarinet, two orchestras, piano, and percussion, that I composed during my graduate studies at Florida International University in Miami. The work is approximately 16 minutes long and is scored for 30 independent instrumental parts in addition to the bass clarinet soloist. Although the piece does not incorporate electronics, electronic music was a major influence in its creation, and the computer was used extensively as a compositional tool. In addition, the writings of Henry Cowell and the music of Sofia Gubaidulina influenced the concerto in a number of ways. While writing this work, I had to discover new ways to allow pure instinct to intermingle with strict calculation. This paper will discuss in detail the various techniques used in the creation of the concerto as well as some of the works that influenced it.
APA, Harvard, Vancouver, ISO, and other styles
25

Sen, Mustafa Yasin. "SYNTHESIS OF MIDDLE-CHAIN CARBOXYL- AND PRIMARY AMINE-FUNCTIONALIZED POLYSTYRENES USING ANIONIC POLYMERIZATION TECHNIQUES." University of Akron / OhioLINK, 2005. http://rave.ohiolink.edu/etdc/view?acc_num=akron1132533104.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Thomas, Casey Winn. "Valve technique for the independent double-valve bass trombone: a pedagogical review and method." Diss., University of Iowa, 2015. https://ir.uiowa.edu/etd/5863.

Full text
Abstract:
Among the instruments of the Western orchestra, the bass trombone has experienced the most transformation. Such evolution has included an expansion of the bore and bell diameter, inclusion of initially one and now two valves, and experimentation with variable-bore hand and tuning slides. Consequently, composers of orchestral music and solo bass trombone literature have expanded the demands placed upon the bass trombonist. Various methodologies have been developed to address the ever-expanding musical expectations of the bass trombonist, with some pedagogical aspects having been addressed more than others. One particular pedagogical subject that bears more investigation is the proper usage of valves, and that is the subject area that the following document examines and seeks to address. The author will provide the bass trombonist and his or her teachers with a basic understanding of the history of the bass trombone, including a short discussion about the limitations of the technical capabilities of the valve-less and single-valve bass trombone. The realized method will provide the bass trombonist with the tools to make intelligent decisions about which valve and slide combinations to use and why, to the point that the informed bass trombonist will become the master of the instrument.
APA, Harvard, Vancouver, ISO, and other styles
27

Alharbi, Ahmed. "Applied analytical techniques to study solution behaviour of TIPS-pentacene and 1,6-bis(pyren-1-ylthio)hexane." Thesis, University of Manchester, 2017. https://www.research.manchester.ac.uk/portal/en/theses/applied-analytical-techniques-to-study-solution-behaviour-of-tipspentacene-and-16bispyren1ylthiohexane(aeab6a0f-d63f-404b-8087-a332fa358ca1).html.

Full text
Abstract:
Aggregation and cluster formation in solution is often found for molecules with extensive planar structures. This can affect properties ranging from photochemical stability, device structure and electronic properties in organic electronic materials to pipeline clogging and flow rheology in petrochemical extraction and production. Some analytical techniques can be sensitive to aggregation and photostability issues. In this thesis, a range of methods are applied to two scenarios: aggregation and stability of solutions and blends of bis(triisopropylsilylethynyl)-pentacene (TIPS-pentacene) and in pyrene-based models for asphaltene systems. A common organic electronic material, pentacene has a very short half-life in solution with respect to photo-degradation. This behaviour can be attenuated markedly by derivatisation at the 6- and 13- positions, producing 6,13-bis(triisopropylsilylethynyl)pentacene, making this a more appropriate molecule for realistic devices. TIPS-pentacene does still decay photochemically in solution and the process has been shown to be concentration-dependent with greater stability at higher concentrations: it has been suggested that this may be due to the formation of aggregates. In this thesis, new measurements of the kinetics of TIPS-pentacene photo-degradation were obtained by 1H NMR spectroscopy and compared with more conventional UV-visible spectroscopic methods and fluorescence measurements. Diffusion-ordered (DOSY) NMR spectroscopy measurements were also made on TIPS-pentacene solutions and polymer blends, although this did not provide any convincing evidence for aggregation. However, the application of isothermal titration calorimetry did show effects which may be due to some aggregate dissociation at higher concentration. From this it is concluded that the timescale of the TIPS-pentacene self-aggregation or polymer interaction is likely to be much shorter than that of the NMR experiment. The NMR methods applied to TIPS-pentacene were also used to study the solvent- and concentration-dependent behaviour of 1,6-bis(pyren-1-ylthio)hexane (BPH), a potential model for asphaltenes that is simpler to study. 1H NMR measurements proved difficult because of the effects of solvent mixtures on the NMR methods. Generally, the DOSY NMR results obtained do not provide firm evidence for aggregation. Since these molecules are very likely to aggregate, this further suggests that aggregation and disaggregation may occur faster than the NMR time scale. In both cases, the results presented here show that all of these methods are to some extent sensitive to aggregation effects, but that care is needed in specific applications to choose methods which are (i) sufficiently sensitive at appropriate concentrations; (ii) not perturbed by concentration dependent phenomena; and (iii) not limited by timescales of the measurement.
APA, Harvard, Vancouver, ISO, and other styles
28

Rees, Carla. "Collaboration in practice : developing a repertoire of extended techniques for the Kingma System alto and bass flute." Thesis, Royal College of Music, 2014. http://researchonline.rcm.ac.uk/385/.

Full text
Abstract:
This doctoral research explores the benefits of the Kingma System as applied to the alto and bass flute. It demonstrates each instrument's potential for the use of extended techniques and the way in which these techniques are applied to the repertoire. The research takes places within the context of my own personal practice as a recitalist and chamber musician, and is represented through recordings of a selection of the repertoire and a website for each instrument, as well as a written commentary. The discussion of repertoire focuses on case studies selected from over 75 works composed for me using these Kingma System instruments. These case studies are presented through recordings, as well as in a detailed discussion of the use of specific aspects of the instruments' capabilities, including multiphonics, microtonality, alternate fingerings, tone colour, articulation and other extended techniques. The approaches of different composers regarding the notation of these techniques within the repertoire are also explored, and the practical information arising from these case studies is presented as a reference guide for composers and performers in website form. These websites can be found at www.altoflute.co.uk and www.bassflute.co.uk, and include multimedia demonstrations, fingering charts and notational examples. Much of this information is being made available for the first time, and includes the most extensive published selection of multiphonics and trill fingerings for the alto and bass flute. This is also the first survey of extended techniques that is specifically dedicated to instruments enabled by the Kingma System.
APA, Harvard, Vancouver, ISO, and other styles
29

Conan-Cibotti, Michelle. "Dosages immunoenzymatiques des alcaloi͏̈des bis indoliques de "Catharanthus roseus" G. Don." Paris 11, 1990. http://www.theses.fr/1990PA114832.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Morera, Raphaël. "Les assèchements de marais en France au XVIIè siècle (1599-1661) : technique, économie, environnement." Paris 1, 2008. http://www.theses.fr/2008PA010639.

Full text
Abstract:
En 1599, Henri IV accorde un privilège à Humphrey Bradley, ingénieur brabançon, pour l’assèchement des marais de France. L'étude des traités techniques néerlandais et français, comme des. Pratiques héritées, montre que la France souffrait plus de lacunes politiques et économiques que techniques. Les assèchements réalisés par Bradley et ses associés reposent sur de véritables entreprises exploitant le privilège de 1599. Jusqu'en 1639, les investisseurs sont des capitalistes flamands et des aristocrates proches du roi. À partir des années. 1640, les assèchements sont financés par des marchands banquiers liés à Richelieu et Mazarin. Ils se sont révélé être des opérations rentables. Sur les neuf sites étudiés seuls deux sont actuellement retournés sous les eaux et un seul a été urbanisé, tous les autres sont restés asséchés malgré d'inévitables aléas. Ces assèchements constituent de véritables mutations environnementales et une étape marquante dans l'aménagement des littoraux français.
APA, Harvard, Vancouver, ISO, and other styles
31

Colleter, Julie. "Towards the development of clonal lines in the European sea bass (Dicentrarchus labrax L) : application of uniparental reproduction techniques with an insight into sea bass eggs." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS104/document.

Full text
Abstract:
Les lignées clonales sont un outil puissant pour une meilleure caractérisation génétique des organismes utilisés en recherche. En utilisant les techniques de reproduction uniparentale, de telles lignées peuvent être développées chez les poissons en seulement deux générations. L'androgenèse avait déjà été réalisée chez plusieurs espèces d'eau douce et a été tentée chez le loup, une espèce d'intérêt économique et scientifique. Le faible nombre d'individus contenant effectivement uniquement le patrimoine génétique du père, après irradiation des œufs aux UV, a soulevé des questions quant à la présence de composés photoprotecteurs dans les œufs pélagiques. Les acides aminés de type mycosporines et le gadusol ont été recensés dans de nombreux organismes marins et d'eau douce, mais leur présence n'a pu être reliée au comportement flottant ou coulant des œufs. Tandis que le gadusol apparaissait en plus grande quantité dans les œufs marins flottants, ce résultat était beaucoup moins clair en eau douce et le type de composés photoprotecteurs semble lié à la phylogénie. D'autres études sur les mécanismes de photoréparation de l'ADN pourraient éclairer les résultats obtenus dans les expériences d'androgenèse. La gynogenèse avait déjà été reportée chez le loup mais le grand nombre d'individus méiotiques contaminant les descendances homozygotes produites a conduit à valider des marqueurs microsatellites efficaces à distinguer les individus mitotiques. De plus, un retard de développement des gonades a été observé, augmentant les difficultés à obtenir les lignées clonales. La grande variabilité observée entre les individus quant au succès des reproductions uniparentales a montré que la caractérisation et la qualité des gamètes sont un préalable indispensable
Clonal lines are a powerful scientific tool for improved genetic characterization of organisms used in research. Inbred fish lines can be produced in only two generations using uniparental reproduction techniques. Androgenesis, achieved with variable success in several freshwater species, has been attempted in the European sea bass (Dicentrarchus labrax L), a marine fish of commercial and scientific interest. The low yields of progenies inheriting only the paternal genome after UV-irradiation of eggs led to considerations on the occurrence of UV screening compounds in pelagic eggs. Mycosporine-like amino acids and gadusol were found in many marine and freshwater organisms, but their occurrence in fish eggs was not clearly related to a behavioral pattern and while gadusol appeared in higher proportions in pelagic marine eggs compared to benthic species, this statement did not apply in freshwater, and moreover the kind of compounds was related to phylogeny. Further studies on DNA photorepair could enlighten hypotheses to understand the mechanisms underlying the disparate results obtained in inducing androgenesis in different fish species. Gynogenesis was reported successful to produce clonal founders in the sea bass, but high numbers of meiotic individuals contaminating fully homozygous progenies highlighted the need for efficient DNA markers to distinguish mitotic gynogenetic individuals. Furthermore, gonad development was highly delayed in gynogenetic progenies enhancing the difficulties to produce clonal lines. A high variability between individuals in the success of uniparental reproduction brought out gamete characterization and quality as a prerequisite
APA, Harvard, Vancouver, ISO, and other styles
32

Nel, Anton Pieter. "The influence of different winemaking techniques on the extraction of grape tannins." Thesis, Stellenbosch : University of Stellenbosch, 2011. http://hdl.handle.net/10019.1/6872.

Full text
Abstract:
Thesis (MScAgric (Viticulture and Oenology))--University of Stellenbosch, 2011.
Includes bibliography.
ENGLISH ABSTRACT: Grape and wine phenols consist of flavanols which is the building blocks for tannins. These building blocks are called monomers which consist of catechins, epicatechins, epigallocatechins and epicatechin-gallate. Tannin is important in wine as it contributes to bitterness, mouth feel (astringency) and maturation potential of the wine. Futhermore it has a health benefit as an antioxidant. Anthocyanins are responsible for the colour of red wine. The anthocyanins combine with tannins to form stable polymeric pigments. Due to the importance of tannins and anthocyanins in wine, it is imperitative that different winemaking techniques are used to extract as much of these components as possible and that the analysis is done quickly and accurately. The aim of this study was to evaluate different winemaking techniques and their extraction of tannins and anthocyanins into the wine. Too much tannin extraction can have a negative effect on the sensory quality of the wine. Therefore a second aim was to evaluate the mouth feel properties of a Shiraz wine. A third aim was to compare the two tannin precipitation methods in terms of time efficiency, repeatability and the ease of practice. To investigate the amount of tannin concentration extracted by different winemaking techniques, two cultivars (Cabernet Sauvignon and Shiraz) were used. These treatments included the addition of an enzyme during fermentation [E], cold maceration [CM], post maceration [PM] and the combination of cold and post maceration [CM+PM]. The grapes were harvested in two different climatic areas during the 2008 and 2009 vintages. The two climatic areas were classified according to the Winkler scale as a III (Morgenster) and a IV (Plaisir de Merle). The grapes were harvested at two different ripeness levels in order to evaluate the effect of the different winemaking processes on the extraction of tannins and anthocyanins. One harvest was before (LB) and the other after (HB) the commercial harvest. The results of this study showed significant differences in the phenolic composition of the wines. It was found that the warmer area showed higher tannin concentrations than the cooler area for both cultivars. In the 2008 Cabernet Sauvignon the CM extracted higher concentrations of tannin from the cooler area at both ripeness levels. In the warmer area, CM extracted the highest tannin concentration HB, but the CM+PM extracted the highest tannin concentration from Cabernet Sauvignon at the LB and CM at the HB of the warmer area. In 2009 the PM extracted the highest concentration of tannin at the lower ripeness level, while the E treatment extracted the highest concentration from the warmer area. In the cooler area the CM+PM extracted the highest concentration of tannin at a lower ripeness level, while there were no siginicant differences between the different treatments at the higher ripeness level. The highest anthocyanin concentration was found in the cooler area. The CM treatment was found to have no effect on anthocyanin extraction. Different methods are available to quantify the tannin concentration in wine. Two of the most popular tannin analytical methods are the bovine serum albumin (BSA) and the methyl cellulose precipitable tannin (MCP) methods. The BSA method is a very complex method which uses at least 3 times more reagents than the MCP method. The MCP method only analyzes tannins, while the BSA method analyzes tannins, monomeric pigments (MP), small polymeric pigments (SPP) and large polymeric pigments (LPP). In this study a good correlation was found between the two tannin precipitation methods (R2 – 0.88). There is controversy regarding the variability of these methods. Some scientists found that the two methods show a good correlation with HPLC, while others found that there was no such correlation between the precipitation methods and the HPLC. The MCP method had a practical advantage as it could be performed in half the time required for the BSA method. This has a significant impact in scenarios where a high sample throughput is required although it only measures total tannin. The phenolic composition and mouth feel of the wine was strongly influenced by the climatic area. In the warmer area the effect of tannin concentration on mouth feel was much less than in the cooler area. The wine made of riper grapes, was more grippy, bitter and numbing than the wines made from greener grapes. The E treatment was especially associated with a dry, grippy sensation.
AFRIKAANSE OPSOMMING: Druif en wyn fenole bestaan uit flavanole wat weer die boublokke is van tanniene. Hierdie boublokke, wat bekend staan as monomere, betsaan uit katesjiene, epikatesjiene, epigallokatesjiene an epikatesjien-gallaat. Tanniene is belangrik in wyn aangesien dit bydra tot bitterheid, mondgevoel (vrankheid) asook die verouderingspotensiaal van wyn. As antioksidante hou dit ook gesondheidsvoordele in. Antosianiene dra by tot die kleur van rooiwyn. Antosianiene kombineer met tanniene om meer stabiele polimeriese pigmente te vorm. As gevolg van die belangrikheid van tanniene en antosianiene is dit van uiterse belang dat verskillende wynmaak tegnieke gebruik word om ekstraksie in die wyn te bevoordeel en dat die analitiese metode so vinnig en akkuraat as moontlik gedoen word. Die eerste doel van hierdie studie was om die ekstraksie van tanniene en antosianiene deur middel van verskillende wynmaak tegnieke te evalueer. Te veel tanniene in die wyn kan negatiewe sensoriese kwaliteit tot gevolg het. Daarom is die tweede doel om die sensoriese kwaliteit van Shiraz wyn te evalueer. Die derde doel van hierdie studie was die twee tannien presipitasie metodes met mekaar te vergelyk in terme van die moeilikheidsgraad van die metode, tyd doeltreffendheid en herhaalbaarheid. Verskillende wynmaak tegnieke (ensiem byvoegings [E], koue maserasie [CM], verlengde dopkontak [PM] en ‘n kombinasie van koue maserasie en verlengde dopkontak [CM+PM]) is vergelyk ten opsigte van tannien en antiosianien ekstraksie. In 2008 en 2009 is twee kultivars (Cabernet Sauvignon en Shiraz) in twee verskillende klimatologiese areas gepars. Hierdie areas is geklassifiseer in die Winklerskaal as ‘n IV (Plaisir de Merle) en ‘n III (Morgenster). Om die effek van die verskillende wynmaak tegnieke op die ekstraksie van antosianiene en tanniene te vergelyk, is hierdie twee kultivars by twee verskillende rypheidsgrade geoes. Die eerste oes was net voor kommersiële oes (LB) en die tweede oes het net na kommersiële oes (HB) plaasgevind. Die 2009 Shiraz wyn is organolepties beoordeel om die effek van die verskillende wynmaak tegnieke op die wyn se mondgevoel te vergelyk. Die resultate van hierdie studie toon beduidende verskille in die fenoliese samestelling van die wyne. Dit is gevind dat die warmer area hoër tannien konsentrasies het as die koeler area. In 2008 het die CM+PM die meeste tanniene uit die Cabernet Sauvignon geëkstraheer by LB en die CM by HB in die warmer area. Die CM het in die koeler area meer tanniene geëkstraheer by beide die LB en HB rypheidsgrade. In 2009 het PM die meeste tanniene geëkstraheer by LB terwyl E die meeste tanniene geëkstraheer in die warmer area. In die koeler area het CM+PM die meeste tanniene geëkstraheer, terwyl geen van die behandelings ‘n effek gehad het by HB. Die meeste antosianien konsentrasie was in die koeler area gevind as in die warmer area. In beide 2008 (LB en HB) en 2009 (LB) het CM die meeste antosianiene geëkstraheer, terwyl geen behandeling ‘n effek gehad het by HB. Twee van die mees populêre tannien analitiese metodes is die BSA (bovine serum albumien) en die MCP (metielsellulose presipitasie) metodes. Die BSA metode is ‘n baie meer ingewikkelde metode waarvoor drie keer meer reagense gebruik word as vir die MCP metode. Maar waar die MCP net tanniene ontleed, ontleed die BSA metode tanniene, monomere (MP), klein polimeriese pigmente (SPP) en groot polimeriese pigmente (LPP). Dit help indien daar gekyk wil word na die evolusie van polimeriese pigmente. In hierdie studie is bevind dat daar ‘n redelike korrelasie (R2 – 0.88) tussen die BSA en MCP metode bestaan. Die herhaalbaarheid van die metodes het redelike kontroversie veroorsaak, waar sommige navorsers bevind het dat die BSA metode nie so herhaalbaar is soos eers bevind is nie. Die MCP metode het ’n praktiese voordeel aangesien dit in die helfde van die tyd van die BSA metode uitgevoer kan word. Dit het ‘n groot impak indien ‘n groot hoeveelheid monsters ontleed moet word. Die fenoliese samestelling en mondgevoel word sterk beïnvloed deur die klimatologiese area. In die warmer area was die effek van tannien konsentrasie op mondgevoel kleiner as in die koeler area. Die wyn van ryper druiwe het meer harder, verdowingseffek en bitter nasmaak gehad as by die wyn van groener druiwe. Die ensiem behandeling was meer geassossieerd met droë mond gevoel.
APA, Harvard, Vancouver, ISO, and other styles
33

Amhaz, Hawraa. "Traitement d'images bas niveau intégré dans un capteur de vision CMOS." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00838399.

Full text
Abstract:
Le traitement d'images classique est basé sur l'évaluation des données délivrées par un système à basede capteur de vision sous forme d'images. L'information lumineuse captée est extraiteséquentiellement de chaque élément photosensible (pixel) de la matrice avec un certain cadencementet à fréquence fixe. Ces données, une fois mémorisées, forment une matrice de données qui estréactualisée de manière exhaustive à l'arrivée de chaque nouvelle image. De fait, Pour des capteurs àforte résolution, le volume de données à gérer est extrêmement important. De plus, le système neprend pas en compte le fait que l'information stockée ai changé ou non par rapport à l'imageprécédente. Cette probabilité est, en effet, assez importante. Ceci nous mène donc, selon " l'activité "de la scène filmée à un haut niveau de redondances temporelles. De même, la méthode de lectureusuelle ne prend pas en compte le fait que le pixel en phase de lecture a la même valeur ou non que lepixel voisin lu juste avant. Cela rajoute aux redondances temporelles un taux de redondances spatialesplus ou moins élevé selon le spectre de fréquences spatiales de la scène filmée. Dans cette thèse, nousavons développé plusieurs solutions qui visent contrôler le flot de données en sortie de l'imageur enessayant de réduire les redondances spatiales et temporelles des pixels. Les contraintes de simplicité etd'" intelligence " des techniques de lecture développées font la différence entre ce que nousprésentons et ce qui a été publié dans la littérature. En effet, les travaux présentés dans l'état de l'artproposent des solutions à cette problématique, qui en général, exigent de gros sacrifices en terme desurface du pixel, vu qu'elles implémentent des fonctions électroniques complexes in situ.Les principes de fonctionnement, les émulations sous MATLAB, la conception et les simulationsélectriques ainsi que les résultats expérimentaux des techniques proposées sont présentés en détailsdans ce manuscrit.
APA, Harvard, Vancouver, ISO, and other styles
34

Torres, Lucio Domingo. "Elaboration et validation de LAPMAM : processeur parallèle SIMD/MIMD dédié au traitement bas et moyen niveau d'images." Nancy 1, 1999. http://www.theses.fr/1999NAN10293.

Full text
Abstract:
Les processeurs parallèles à architecture monodimensionnelle présentent un bon compromis entre complexité matérielle et performances de traitement pour des applications de traitement d'images. LAPCAM (Linear Array Processors with Content addressable Memory) se classe dans cette catégorie et une étude théorique initiale à montré les performances intéressantes de cette architecture en comparaison avec des machines de même complexité. L'association originale d'un réseau linéaire de processeurs élémentaires et d'une mémoire CAM matricielle communicant à travers un réseau arborescent a permis l'élaboration d'algorithmes parallèles, tels que l'étiquetage de composantes connexes, dont la nature globale, par rapport aux données de l'image, rend son implantation peu efficace sur un microprocesseur. Les grandes lignes de l'architecture étant fixées une première étape du travail a été de définir de manière optimale, dans un objectif d'intégration VLSI, les bus de communication inter processeurs et entre processeurs et mémoire. Dans ce but, et compte tenu des différents modes de circulation des données, l'architecture de la mémoire a été reprécisée et des fonctions telles que RAM et FIFO furent optimisées. Pour compléter l'étude les entrées et sorties des données images furent également optimisées pour permettre un chargement parallèle aux processus de traitement en cours. La seconde phase a été consacrée à la définition des modes d'exécution des algorithmes et, par là même, à l'élaboration détaillée du processeur élémentaire. Le traitement bas niveau d'image conduit naturellement à faire fonctionner les PE en SIMD (Single Instruction Multiple Data). Les contraintes de réalisation d'un circuit intégré VLSI interdisent à priori la mise en oeuvre d'un fonctionnement MIMD pourtant nécessaire dans le cas de traitements de haut niveau. L'originalité du processeur élémentaire étudié est de permettre un fonctionnement MIMD limité sans pour autant alourdir l'architecture. Son architecture est de type RISC à instructions longues (VLIW) dont le jeu "standard" est complété par des instructions spécifiques aux multiples modes d'accès des mémoires ainsi qu'au fonctionnement en MIMD. Le contrôle de l'architecture parallèle, désormais, nommée LAPMAM (Linear Array Processors with Multi-mode Access Memory) est réalisé par un processeur hôte déterminant à chaque instant les opérations à exécuter par les PE. Les instructions de LAPMAM sont également très longues (VLIW) et comprennent les instructions et sous-instructions des PE ainsi que celles spécifiques au contrôle des communications en particulier du réseau arborescent. La dernière phase du travail, consacrée à l'implantation de LAPMAM en cellules logiques, grâce aux outils CADENCE, a pour objectif d'évaluer la faisabilité de l'architecture. Le développement d'un interpréteur de commande a permis l'exécution, sur le processeur synthétisé, d'algorithmes parallèles originaux, tels que filtrage médian, histogramme et étiquetage. Ces simulations au niveau logique confirment les très bonnes performances de LAPMAM comparées à d'autres solutions monodimensionnelles.
APA, Harvard, Vancouver, ISO, and other styles
35

Rupert, Derek L. "Comparison of Creel Survey Data to Traditional Sampling Techniques in Pit-Lake Fisheries of Muhlenberg County, Kentucky." TopSCHOLAR®, 2012. http://digitalcommons.wku.edu/theses/1138.

Full text
Abstract:
Populations of largemouth bass, Micropterus salmoides, and bluegill, Lepomis macrochirus, were evaluated from five pit-lakes in Muhlenberg County, Kentucky, to determine if accurate proportional stock density (PSD) data can be obtained from a mandatory creel survey. It was hypothesized that the proportion of stock-to-quality (300-400mm) and quality (+400mm) largemouth bass from four years (2007-2010) of creel survey data would be statistically similar to those generated through on-site sampling in 2011. Fish were collected via a combination of gill netting, seining, hook-and-line fishing, and boat-mounted electro-fishing. In two of the pit-lakes, the sampling-generated length frequency data was not significantly different from the creel survey data (Pump Gadj[1]=0.03, P=0.8629, Goose Gadj[1]=0.76, P=0.3850). There were significant differences between creel and sampling data for the other pit-lakes (Big Reno Gadj[1]=5.74 P=0.0166, Airstrip Gadj[1]=14.3 P=0.0002, Lime Gadj[1]=9.81 P=0.0017). At least one of the lakes likely demonstrated significances because of low sample size (Airstrip and/or Lime). Changes in population structure due to modified harvest regulations may be responsible for the significant differences (Big Reno and Lime). Population structures were verified with relative weight, length-at-age, and an assessment of five years of largemouth bass and bluegill PSD data. It appears that creel survey data does accurately reflect that of simple sampling techniques and can help guide management decisions.
APA, Harvard, Vancouver, ISO, and other styles
36

Bonvallet, Robert. "Mise en évidence d'un courant calcium à bas potentiel d'activation sur les cellules auriculaires isolées de grenouille." Lyon 1, 1989. http://www.theses.fr/1989LYO10009.

Full text
Abstract:
Les mouvements transmembranaires de ca, lies au potentiel, ont ete etudies en voltage impose avec la technique du patch-clamp, sur les cellules atriales de grenouille. Un courant ca, distinct du courant calcique lent, a ete mis en evidence dans un milieu physiologique. Ce courant entrant, s'activant vers 60 mv, est present si la cellule est maintenue a un potentiel plus negatif que 80 mv. Il n'est pas affecte par de fortes concentrations de tetrodotoxine (ttx) ce qui a permis d'exclure un passage d'ions par les canaux sensibles a la ttx. Son amplitude varie dans le meme sens que la concentration externe en ca, ce qui est en faveur d'un courant de nature calcique. De plus sa sensibilite vis-a-vis du potentiel, des calci-bloqueurs inorganiques (ni, cd) et des dihydropyridines, differente de celle du courant lent permet de penser que ce courant passe par des canaux distincts des canaux calciques lents. Ce courant qui n'est pas module par les agonistes adrenergiques a ete appele courant ca a bas seuil d'activation pour le differencier du courant ca lent. L'amplitude de ce courant est augmentee par l'angiotensine ii alors qu'elle est diminuee par le facteur atrial natriuretique. Un role important des ions na a ete mis en evidence sur les deux types de courant calcium: la suppression des ions na (quel que soit le substituant) s'accompagne toujours d'une tres forte diminution de leur amplitude. Les differents mecanismes susceptibles d'expliquer les effets des ions na ont ete testes. Le role physiologique du courant calcium a bas seuil d'activation est discute
APA, Harvard, Vancouver, ISO, and other styles
37

Eneias, Ronivon Louren?o. "Pareamento BCS em um L?quido de Luttinger em 1D." Universidade Federal do Rio Grande do Norte, 2010. http://repositorio.ufrn.br:8080/jspui/handle/123456789/16575.

Full text
Abstract:
Made available in DSpace on 2014-12-17T15:14:53Z (GMT). No. of bitstreams: 1 RonivonLE_DISSERT.pdf: 2244591 bytes, checksum: e86660db1b3ec37036777503cc5e8a0d (MD5) Previous issue date: 2010-12-20
Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico
In this work we investigate the effect of a BCS-type pairing term for free spinless fermions, with a propensity to form a condensate of pairs in a 1+1 dimension. Using the of bosonization technique we explore the possible condition of existence of quasiparticles in a superconducting state. Although there is no spontaneous breaking of chiral symmetry the propagator of one-particle fermion is massive and, in fact, resembles the one-particle Green s function of conventional quasiparticles
Neste trabalho investigamos o efeito de um termo de emparelhamento do tipo BCS para f?rmions livres sem spins, com propens?o a formar um condensado de pares em uma dimens?o 1+1. Utilizando a t?cnica de bosoniza??o vamos explorar a poss?vel condi??o de exist?ncia de quasipart?culas em um estado supercondutor. Embora n?o haja nenhuma quebra espont?nea de simetria quiral o propagador de 1-part?cula fermi?nica ? massivo e de fato assemelha-se a fun??o de Green de 1-part?cula de uma quasipart?cula convencional
APA, Harvard, Vancouver, ISO, and other styles
38

Theillet, Gérald. "Développement d'un support microfluidique papier pour le diagnostic bas coût d'arboviroses émergentes." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0725/document.

Full text
Abstract:
L'incidence des infections à arbovirus (arthropod born virus) a augmenté de façon spectaculaire au cours des dernières décennies dans les régions tropicales et subtropicales du globe. Les virus de la dengue et du chikungunya sont transmis par les moustiques du genre Aedes et peuvent causer un large panel de symptômes, allant parfois jusqu’au décès. Bien que les tests de diagnostic conventionnels fournissent un diagnostic, l'accès à ces tests est limité dans les pays en développement. Un diagnostic précoce et rapide est crucial pour améliorer la prise en charge du patient. Il y a un besoin urgent de développer des outils peu chers, simples d’utilisation, rapides, et utilisables auprès du patient.Un PAD imprimé à la cire a été développé et évalué pour la détection de la protéine Non Structurale 1 (NS1) de la dengue, dans du sang et du plasma. Le PAD a été en mesure de détecter spécifiquement 10 ng.mL-1 de protéines dans divers types d'échantillons, en 6 à 8 minutes. Par la suite, une version améliorée du PAD obtenue par découpe laser a été conçue et testée pour la détection de la protéine NS1 de la dengue et des IgM spécifiques du virus, dans le sang et le plasma. Ces deux paramètres ont pu être détectés en 8 minutes. Les travaux de mise au point du PAD effectués sur la dengue ont ensuite été appliqués à la détection des IgM du virus du chikungunya dans des sérums humains, en utilisant des Particules virales Pseudotypées (PPs). Les résultats obtenus ont montré une sensibilité de 70,6% et une spécificité d'environ 98%. Le PAD a montré peu de réactions croisées avec d'autres arboviroses. Les PPs ont enfin été caractérisées par différentes méthodes physico-chimiques
The incidence of arboviruses infections has increased dramatically in recent decades in tropical and sub-tropical areas worldwide. Dengue and chikungunya viruses are typically transmitted by mosquitoes and can cause a wide range of symptoms, and sometimes death. Although conventional diagnostic tests can provide diagnosis of acute infections, access to these tests is often limited in developing countries. Early and prompt diagnosis is crucial to improve patient management. Consequently, there is an urgent need to develop affordable, simple, rapid, and robust tools that can be used at ‘Point of Care’ settings.We developed and evaluated a PAD for the detection of the dengue Non Structural 1 (NS1) viral protein in blood and plasma samples. The PAD was able to detect specifically 10 ng.mL-1 of NS1 protein in various sample types and in 6-8 minutes. Secondly, an improved version of the PAD obtained by laser cutting was designed and tested for the detection of dengue NS1 protein and virus-specific IgM in blood and plasma. Each parameter could be detected in 8 minutes. PAD development performed on dengue fever was then applied to the detection of chikungunya virus IgM in human sera, using viral Pseudo-Particles (PPs). These synthetic antigens have proven to be powerful tools for specific IgM detection. The results obtained showed a sensitivity of 70.6% and a specificity of approximately 98% with a time to results of less than 10 minutes. The PAD showed few cross reactions with other arbovirusess. The PPS were finally characterized with different physico-chemical methods in order to determine the key factors of their performances
APA, Harvard, Vancouver, ISO, and other styles
39

Bubb, Martine. "La camera obscura : philosophie d'un appareil." Paris 8, 2008. http://www.theses.fr/2008PA082968.

Full text
Abstract:
Ma thèse porte sur la "camera obscura" en tant qu'appareil, un appareil se différenciant d'un simple dispositif par son caractère technique et poïétique. Dans cette optique, il importe moins de se pencher sur la "camera obscura" en tant qu'outil pour savants ou artistes, que de réfléchir à la façon dont elle dépasse largement ce rôle, en structurant la pensée et la pratique. On pourra alors la considérer comme un appareil à part entière, au même titre que le musée, la photographie, le cinéma ou la perspective. Il faudra le démontrer en insistant plus particulièrement sur le rapport perspective / "camera obscura". Cette dernière, selon moi, est paradigmatique d'une nouvelle vision qui apparaît dans l'art hollandais du XVIIème siècle puis dans la peinture romantique allemande du XIXème. Si elle a été utilisée dès le Moyen-Age par les astronomes arabes, la "camera obscura" ne devient un appareil qu'au XVIIème, car elle génère alors de l'art, des significations, de la pensée. . . En particulier avec Kepler et Vermeer. Mais l'art hollandais a été longtemps ignoré ou étudié selon les critères de l'art italien, qui privilégie le dessin. C'est pourquoi il serait temps de faire sortir de l'ombre cette "oubliée de l'histoire" qu'est la "camera obscura" et avec elle, la couleur, la lumière, l'imaginaire. Quel est le "monde" de la "camera obscura", comment pose-t-elle le problème de l'articulation entre réel et représentation ? Quelle pensée et quel sujet génère-t-elle, quels concepts implique-t-elle ? Nous avons tenté de déterminer la spatialité et la temporalité de cette entité technique et poiétique, et plus généralement de comprendre sa philosophie
My thesis is about the "camera obscura" as an apparatus; an apparatus which differentiates between a simple device through its technical and symbolic characteristics. From this point of view, it is less likely to treat the "camera obscura" as a tool for scientists or artists, but to focus more, on the way it goes widely beyond this function through structuring thought and practice. It is possible therefore, to consider this apparatus as a full entity, in the same light as the museum, cinema, photography or perspective. It must be broken down, insisting particularly on the ratio between perspective and "camera obscura". In my opinion, the latter is paradigmatic of a new vision, such as that which appears in XVIIth century Dutch art and XIXth century German romantic paintings. If it had been used during the Middle Ages by the Arab astronomers, the "camera obscura" did not become an apparatus until the XVIIth century, because only then does it generate art, meaning and thought, notably with Kepler and Vermeer. However, Dutch art had long been ignored or studied within the Italian art criteria which concentrated more on drawings. That is why it would be time to take out this "neglected part of history" from the shadows, i. E. The "camera obscura"; and with it, colour, light and imagination. What is this world of the camera obscura ? How does it deal with the articulation between what is real and what is considered as a representation? What thoughts and which themes does it generate; what concepts does it imply? We have attempted to determine the spatiality and temporality time-frame of this technical and symbolic entity and moreover, its own philosophy
APA, Harvard, Vancouver, ISO, and other styles
40

SOUGOTI, MOUSSA. "Etude de transitions structurales par techniques optiques (birefringence, raman, brillouin) et diffusion de neutrons : application au bis (4-chlorophenyl) sulfone (bcps)." Rennes 1, 1994. http://www.theses.fr/1994REN10092.

Full text
Abstract:
La decouverte recente de la transition de phase displacive incommensurable du bis(4-chlorophenyl) sulfone (bcps), offre des opportunites uniques pour l'etude des excitations de cette phase sur une tres grande gamme de temperatures. Nous avons associe les techniques de diffusion de la lumiere (raman, brillouin) et de diffusion de neutrons, pour analyser cette transition. Les resultats de nos etudes par diffraction de neutrons montrent que la modulation statique de ce compose evolue vers un caractere non sinusoidal a basse temperature. Dans la phase haute temperature, nous avons realise l'etude par diffusion coherente de neutrons de la dynamique pretransitionnelle; nous avons aussi pu determiner les caracteristiques du mode mou (evolution en temperature, dispersion). Ces resultats sont confrontes a ceux que nous avons obtenus par diffusion de la lumiere dans la phase incommensurable. De plus nous avons montre par diffusion raman haute resolution, l'existence d'un phenomene d'interference antiresonnant qui resulte du couplage du mode mou et du mode acoustique quasi-longitudinal. Le diagramme de phase obtenu sous pression hydrostatique, montre que la temperature de transition decroit tres fortement avec la pression. Une etude comparative des spectres du bcps deuterie et du bcps hydrogene nous a permis de montrer que la deuteriation affectait tres peu la temperature de transition ainsi que les caracteristiques du mode mou dans la phase basse temperature (amplitudon). Une analyse optique de la phase basse temperature du cristal de p-terphenyle est aussi presentee dans ce memoire; c'est un compose moleculaire organique qui presente, a pression atmospherique, une transition de type ordre-desordre ayant un caractere ferroelastique impropre. L'hypothese de l'existence de domaines dans la phase basse temperature de ce compose, a ete emise pour interpreter, notamment, les resultats de diffraction de rayons x et de neutrons; au microscope polarisant, nous avons pu confirmer cette hypothese
APA, Harvard, Vancouver, ISO, and other styles
41

Martel-Brisson, Nicolas. "Approche non supervisée de segmentation de bas niveau dans un cadre de surveillance vidéo d'environnements non contrôlés." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29093/29093.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Ba, Abou. "Oxycombustion avec préchauffage des réactifs pour la valorisation des gaz à bas pouvoir calorifique." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR006/document.

Full text
Abstract:
La valorisation des effluents gazeux à faible pouvoir calorifique, sous-produits de différents procédés industriels (gazéification du charbon ou de la biomasse, rejets industriels) apparait aujourd’hui comme une solution alternative pour accroître l’efficacité globale des systèmes de combustion par réduction des coûts énergétiques et contrôle des rejets dans l’environnement. Dans ce contexte, une étude expérimentale d'oxyflammes d'un gaz à très bas pouvoir calorifique, le gaz de haut fourneau (BFG), est réalisée pour évaluer l'effet conjoint de l'oxycombustion et du préchauffage des réactifs pour la stabilisation des flammes turbulentes. La configuration du brûleur consiste en un jet annulaire de gaz de haut fourneau (BFG), entouré de deux injections d’oxygène (interne ‘O2i’ et externe ‘O2e’). Son dimensionnement s’appuie sur une méthodologie originale basée sur la détermination d’une vitesse de convection critique UC* à l’extinction de flamme, dérivée d’une valeur expérimentale d'un nombre de Damköhler critique Dac*. Les structures de flammes sont caractérisées par imagerie de chimiluminescence OH* et les propriétés thermiques et chimiques sont évaluées par mesures de température et flux thermique à la paroi et de la composition des fumées. Les champs aérodynamiques 2D des écoulements réactifs sont mesurés par PIV. Quatre principales topologies de flamme sont observées avec cette configuration de brûleur et classées suivant leur mode de combustion. Sans préchauffage, les deux flammes concentriques, interne ‘O2i-BFG’ et externe ‘BFG-O2e’, sont attachées au brûleur à basse puissance (Type A) ; la flamme BFG-O2e peut présenter une stabilité intermittente (Type B), ou se décrocher du brûleur (Type C) à la puissance nominale de dimensionnement. Avec préchauffage des réactifs, la flamme annulaire BFG-O2e reste toujours accrochée au brûleur et la flamme centrale O2i-BFG présente une zone d’extinction locale pour des fortes valeurs de vitesse d’O2i (Type D). L’ensemble des résultats a permis de mettre en avant un bon accord entre les prédictions théoriques et les valeurs expérimentales de UC* avec un élargissement des domaines de stabilité de flamme avec le préchauffage. L'analyse aérodynamique permet de caractériser les transitions entre les structures de flammes. Une validation du critère de dimensionnement de l’oxy-brûleur est aussi effectuée par changement d’échelle, grâce à des mesures réalisées sur une installation semi-industrielle de 180 kW
The effective utilisation of low calorific value fuel, as gaseous by-products of coal/biomass or industrial residual gases, provides not only excellent opportunities for low cost power generation but also for the reduction of environmental impact of combustion. The present work aims to consider the combination of oxyfuel combustion with fuel and/or oxygen preheating in order to increase thermal efficiency by heat recovery and enhance oxyfuel flame stabilization of blast furnace gas (BFG). This experimental study is performed with a burner consisting in an annular jet of BFG surrounded by two injections of oxygen (internal 'O2i' and external 'O2e'). Its dimensions are determined from an original design strategy based on an experimentally critical Damköhler number Dac*, which represents the theoretical limit of stabilisation of a turbulent diffusion BFG-O2 flame with preheated reactants. Flames structures are characterized by OH* chemiluminescence imaging. Thermal and chemical flame properties are evaluated by temperature and radiative flux analysis and pollutant emissions measurements. The 2D aerodynamic fields of reactive flows are determined by velocity measurements by PIV. Four LCV flames structures are resulting from this burner configuration. Without preheating, two concentric flames, internal 'O2i-BFG' and external 'BFG-O2e', are anchored at the burner (Type A) at low thermal power. When increasing the latter, the external flame BFG-O2e manifests some local fluctuations (Type B) or is lifted-off (Type C). With reactants preheating, the BFG-O2e flame is always anchored at the burner tip and the O2i-BFG flame could have local extinction zone for very high values of internal oxygen velocity (Type D). The results highlight a good agreement between theoretical and experimental critical velocity UC* which significantly increases with preheating. The aerodynamics study points out the transitions between the different flames structures. At semi-industrial scale, flames show similar structures to those obtained at laboratory scale. This validates the burner design strategy of preheated oxyfuel combustion adapted to LCV fuels, as well as the scale up criteria used
APA, Harvard, Vancouver, ISO, and other styles
43

Marquet, Miléna. "Les modèles d'ilôts/quartiers à système énergétique local bas carbone : fondamentaux techniques et économiques, conditions institutionnelles de mises en oeuvre et conséquences pour les modes de vie." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAE006/document.

Full text
Abstract:
Le développement du quartier comme échelle d’un développement urbain plus durable s’inscrit dans une période de prise de conscience liée au changement climatique pour lequel l’Union Européenne a mise en place une politique de transition énergétique. Actuellement, les écoquartiers se structurent autour de deux points clés au niveau énergétique : l’efficacité énergétique et l’approvisionnement énergétique. L’efficacité énergétique qui englobe la performance énergétique du bâtiment et la maitrise de la demande énergétique est le fer de lance des politiques de transition énergétique locale existante. A l’opposé, l’approvisionnement énergétique bas carbone ne semble pas avoir encore atteint une maturité suffisante pour être réalisée en totalité à l’échelle du quartier. Néanmoins, l’analyse des projets d’écoquartiers montre l’intérêt croissant porté à la création d’une offre énergétique bas carbone employant les ressources locales. Cet intérêt traduit, notamment, la volonté de certains acteurs locaux d’atteindre un certain degré d’autonomie énergétique. Afin d’envisager le quartier comme une échelle pertinente pour l’approvisionnement énergétique bas carbone, il est nécessaire d’analyser les conditions technico-économiques et institutionnelles à mettre en œuvre. Elle révèle le besoin d’un changement de paradigme dans la structuration des systèmes énergétiques passant de systèmes centralisés à des systèmes décentralisés. Or, ce nouveau paradigme est conditionné par la maturité technico-économique des infrastructures pouvant être installées dans le quartier et par la capacité à trouver un modèle d’affaire viable rendant l’investissement rentable à cette échelle. D’un point de vue institutionnel, il provoque une modification des relations entre les acteurs utilisant les vecteurs énergétiques étudiés (électricité et chaleur). L’essor de nouveaux profils de production avec le développement des énergies renouvelables et l’émergence de nouveaux profils de consommateurs devenant des producteurs modifie la chaîne de valeur énergétique et oblige à garantir la flexibilité des systèmes énergétiques pour garantir leur bon fonctionnement. Pour tenter d’apporter un éclairage sur les possibles formes que pourraient prendre ces relations, une démarche méthodologique reposant sur la construction d’idéal-types a été réalisé. Elle fait apparaître le besoin d’un nouvel acteur, le gestionnaire de l’énergie, pour garantir le bon fonctionnement des systèmes énergétiques installés dans les quartiers
The development of the neighborhood as a scale of a more sustainable urban development takes part in a period of awareness linked to climate change for which the European Union has implemented an energy transition policy. In this context, the eco-neighborhoods are structured around two key points in terms of energy: energy efficiency and energy supply. Energy efficiency, which encompasses the energy performance of buildings and the control of energy demand, is the spearhead of existing local energy transition policies. In contrast, the low-carbon energy supply does not seem to have reached sufficient maturity to be fully implemented at the neighborhood level. Nevertheless, the analysis of eco-district projects shows the growing interest in the creation of a low carbon energy supply using local resources. This interest reflects, in particular, the willingness of some local actors to reach a degree of energy autonomy. In order to consider the neighborhood as a relevant scale for low-carbon energy supply, it is necessary to analyze the technical-economic and institutional conditions to be implemented. It reveals the need for a paradigm shift in the structuring of energy systems from centralized to decentralized systems. However, this new paradigm is conditioned by the technical and economic maturity of the infrastructures that can be installed in the district and by the ability to find a viable business model making the investment profitable on this scale. For the institutional part, it causes a modification of the relations between the actors using the energetic vectors studied (electricity and heat). The rise of new production profiles with the development of renewable energies and the emergence of new consumer profiles becoming producers, alters the energy value chain and makes it necessary to guarantee the flexibility of energy systems to ensure their correct functioning. To plan a different pathway that these relationships might take, a methodological approach based on the construction of the ideal-type was carried out. It shows the need for a new player, the energy manager, to ensure the proper functioning of the energy systems installed in the neighborhoods
APA, Harvard, Vancouver, ISO, and other styles
44

Weidenauer, Uwe. "Feasibility study for the microencapsulation of Pamidronate-disodium using D, L-Poly(lactide-co-glycolide acid-glucose): evaluation of different techniques and devices /." Marburg : Görich & Weiershäuser, 2000. http://www.gbv.de/dms/bs/toc/327657766.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Bamha, Mostafa. "Parallélisme et équilibrage de charges dans le traitement de la jointure et de la multi-jointure sur des architectures SN." Orléans, 2000. http://www.theses.fr/2000ORLE2001.

Full text
Abstract:
L'interet du traitement parallele devient tres fort dans les applications qui exigent des performances de plus en plus elevees et en particulier dans les applications de bases de donnees, des entrepots de donnees et d'aide a la decision. Le parallelisme peut considerablement augmenter les performances de telles applications. Toutefois il n'est utile qu'en presence d'algorithmes realisant des requetes complexes sur des donnees dynamiques, irregulieres et distribuees. De tels algorithmes doivent etre concus pour repartir de maniere equitable la charge des differents processeurs tout en reduisant au minimum les couts des calculs locaux et de communication inherents aux machines multi-processeurs. Les recherches ont montre que l'operation de jointure ne peut etre parallelisable avec une acceleration lineaire sur des architectures shared nothing que sous des conditions ideales d'equilibre des donnees. Le desequilibre des donnees peut avoir un effet devastateur sur la performance. Dans le cadre de cette these, nous nous interessons au probleme d'equilibre de charge pour le traitement de la jointure et de la multi-jointure sur des architecture shared nothing. Dans ce contexte, avons propose une variete d'algorithmes pour le traitement de la jointure et la multi-jointure permettant de reduire les couts de redistribution (et donc les couts de communication) tout en traitant de maniere tres efficace les problemes de desequilibre des valeurs de l'attribut de jointure et des resultats de jointures. Nous avons etendu notre etude aux applications d'entrepots de donnees par la proposition d'un algorithme efficace pour la maintenance des vues materialisees dans un environnement shared nothing. L'analyse de complexite des differents algorithmes
APA, Harvard, Vancouver, ISO, and other styles
46

Männel, Michael. "Condensation phenomena in interacting Fermi and Bose gases." Doctoral thesis, Universitätsbibliothek Chemnitz, 2011. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-77738.

Full text
Abstract:
In dieser Dissertation werden das Anregungsspektrum und das Phasendiagramm wechselwirkender Fermi- und Bosegase untersucht. Zu diesem Zweck wird eine neuartige renormierte Kadanoff-Martin-Näherung vorgestellt, die Selbstwechselwirkung von Teilchen vermeidet und somit eine einheitliche Beschreibung sowohl der normalen als auch der kondensierten Phase ermöglicht. Für Fermionen findet man den BCS-Zustand, benannt nach Bardeen, Cooper und Schrieffer, welcher entscheidend ist für das Phänomen der Supraleitung. Charakteristisch für diesen Zustand ist eine Energielücke im Anregungsspektrum an der Fermi-Energie. Weiterhin tritt für Bosonen eine Bose-Einstein-Kondensation (BEC) auf, bei der das Anregungsspektrum für kleine Impulse linear ist. Letzteres führt zum Phänomen der Suprafluidität. Über die bereits bekannten Phänomene hinaus findet man eine dem BCS-Zustand ähnliche Kondensation von Zweiteilchenbindungszuständen, sowohl für Fermionen als auch für Bosonen. Für Fermionen tritt ein Übergang zwischen der Kondensation von Bindungszuständen und dem BCS-Zustand auf, der sogenannte BEC-BCS-Übergang. Die Untersuchung der Zustandsgleichung zeigt, dass im Gegensatz zu Fermi-Gasen und Bose-Gasen mit abstoßender Wechselwirkung Bose-Gase mit anziehender Wechselwirkung zu einer Flüssigkeit kondensieren oder sich verfestigen, bevor es zur Kondensation von Bindungszuständen oder zur Bose-Einstein-Kondensation kommt. Daher können diese Phänomene voraussichtlich nicht in der Gasphase beobachtet werden. Zusammenfassend lässt sich sagen, dass das vorgestellte Näherungsverfahren sehr gut geeignet ist, die erwähnten Phänomene im Zusammenhang mit der Bose-Einstein-Kondensation zu beschreiben.
APA, Harvard, Vancouver, ISO, and other styles
47

Zhao, Yili. "Étude et réalisation d'un système de transmission d'images numériques à bas débit." Nancy 1, 1989. http://www.theses.fr/1989NAN10266.

Full text
Abstract:
La transmission ou le stockage d'image sont d'un grand intérêt avec le développement des communications. Les progrès technologiques obtenus dans le traitement numérique rendent aujourd'hui possible la réalisation de systèmes performants, dans lesquels la compression des données joue un rôle essentiel. Le domaine d'application de la compression du signal vidéo est très varié : vidéo-conférence, satellite, fac-similé, médical, diffusion, distribution de câble, etc. . . En pratique, les techniques de compression vidéo ne peuvent être dissociées des objectifs de l'utilisateur. L'efficacité s'analyse à partir de la qualité subjective et de la complexité désirée. La mauvaise restitution de quelques points dans l'image, par exemple, n'est pas forcément critique dans le domaine civil, mais peut être dramatique pour l'interprétation dans le domaine militaire. Il n'est donc pas possible de classer de façon générale les performances des méthodes de compression
APA, Harvard, Vancouver, ISO, and other styles
48

Vangani, Saroj. "Development of an in vitro dissolution model to predict the in vivo behavior of poorly soluble compounds." Scholarly Commons, 2010. https://scholarlycommons.pacific.edu/uop_etds/2412.

Full text
Abstract:
One of the challenges of biopharmaceutics research is correlating in vitro drug release information with the in vivo drug profiles often known as in vitro-in vivo correlations (IVIVC). These have huge cost savings in pharmaceutical industry. This dissertation describes the development of a novel in vitro dissolution model that has been designed to evaluate the in vitro release of poorly water-soluble model compounds so as to predict their in vivo behavior. The flow through apparatus (USP 4) has been coupled with the compendial dissolution apparatus (USP 2). A bi-phasic dissolution medium has been used to achieve sink conditions. The dissolved drug from the aqueous phase is continuously extracted into the organic phase of the biphasic dissolution medium, mimicking the dynamic process of in vivo absorption. The model can successfully discriminate between the bioequivalent and non-bioequivalent formulations and can be used to establish IVIVC. It was concluded that the model will serve as a surrogate for bioequivalence studies and to support biowaivers.
APA, Harvard, Vancouver, ISO, and other styles
49

Ben, Abdallah Mériem. "Un modèle de l'évolution des gliomes diffus de bas grade sous chimiothérapie." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0215/document.

Full text
Abstract:
Les gliomes diffus de bas grade sont des tumeurs cérébrales des jeunes adultes. Dans cette thèse, nous nous intéressons à la segmentation et à la modélisation de ces tumeurs. Dans la première partie du manuscrit, nous étudions la segmentation des gliomes diffus de bas grade à base de différentes méthodes manuelles et semi-automatiques. La délimitation de ces tumeurs peut être problématique en raison de leur caractère très infiltrant et inhomogène. En pratique clinique, le suivi des gliomes diffus de bas grade repose sur l'estimation du volume tumoral, soit par une segmentation suivie d'une reconstruction logicielle, soit par la méthode des trois diamètres. Pour la segmentation, elle est manuelle et est exécutée par des praticiens sur des IRM en pondération FLAIR ou T2. La méthode des trois diamètres est rapide mais s'avère difficile à implémenter dans le cas de gliomes diffus de bas grade très infiltrants ou en post-traitement. La solution par segmentation manuelle et reconstruction logicielle du volume est chronophage mais demeure plus précise en comparaison de la méthode des trois diamètres. Nous étudions ici la reproductibilité de la segmentation manuelle avec le logiciel OsiriX en réalisant un test subjectif dans le Living Lab PROMETEE de TELECOM Nancy. Les résultats de cette étude montrent que ni la spécialité du praticien ni le nombre d’années d’expérience ne semblent impacter significativement la qualité de la segmentation. Nous comparons par ailleurs les résultats obtenus à ceux d'un deuxième test où nous appliquons la méthode des trois diamètres. Enfin, nous explorons deux algorithmes de segmentation semi-automatique basés, respectivement, sur les contours actifs et sur la méthode des level set. Même si la segmentation automatique semble être une voie prometteuse, nous recommandons aujourd’hui l’utilisation de la segmentation manuelle du fait notamment du caractère diffus des gliomes de bas grade qui rend le contour complexe à délimiter. La seconde partie du manuscrit est consacrée à la modélisation des gliomes diffus de bas grade eux-mêmes ou, plus exactement, à la modélisation de l'évolution du diamètre tumoral en phase de chimiothérapie. La prise en charge thérapeutique des patients atteints de ces tumeurs inclut en effet souvent une chimiothérapie. Pour ce travail, nous nous intéressons à la chimiothérapie par Témozolomide en première ligne de traitement. Une fois le traitement entamé, les praticiens aimeraient déterminer l'instant optimal d'arrêt de traitement. Nous proposons une modélisation statistique du diamètre tumoral sous chimiothérapie. Cette modélisation s'appuie sur des modèles de régression linéaire et exponentielle. Elle permet de prédire le diamètre tumoral à partir d'un jeu de données d'apprentissage et d'alerter le clinicien sur l'état d'évolution du diamètre sous traitement. Nous espérons que ces modèles pourront un jour être utilisés comme un outil dans la planification de la chimiothérapie en milieu clinique
Diffuse low-grade gliomas are brain tumors of young adults. In this thesis, we focus on the segmentation and on the modeling of these tumors. In the first part of the manuscript, we study the segmentation of diffuse low-grade gliomas based on different manual and semi-automatic methods. The delineation of these tumors can be problematic because of their very infiltrating and inhomogeneous nature. In clinical practice, the monitoring of diffuse low-grade gliomas is based on the estimation of tumor volume, obtained either through a segmentation followed by a software reconstruction or through the three diameters method. As for the segmentation, it is manual and it is performed by practitioners on FLAIR-weighted or T2-weighted MRI.The three diameters approach is fast but it is difficult to implement in the case of highly infiltrating diffuse low grade gliomas or after a treatment. The manual segmentation and software-based volume reconstruction solution is time-consuming but it remains more accurate in comparison with the three diameters method. We investigate in this work the reproducibility of the manual segmentation with the OsiriX software by performing a subjective test in the Living Lab PROMETEE in TELECOM Nancy. The results of this study show that neither the practitioners' specialty nor their number of years of experience seem to have a significant impact on the quality of the segmentation. We also compare the results to those of a second test where we apply the three diameters method. Finally, we explore two semi-automatic segmentation algorithms which are, respectively, based on active contours and on the level set method. Even if automatic segmentation seems to be a promising avenue, we recommend for now the use of manual segmentation because of the diffuse nature of low-grade gliomas, which makes the tumor's contours complex to delineate. The second part of the manuscript is dedicated to the modeling of diffuse low-grade gliomas themselves or, to be more precise, to the modeling of the evolution of the tumor's diameter during chemotherapy. The therapeutic management of patients with these tumors often includes indeed chemotherapy. For this work, we focus on Temozolomide chemotherapy in first-line treatment. After the beginning of the treatment, the practitioners would like to determine the optimum time of discontinuation. We propose a statistical modeling of tumor diameter under chemotherapy. This modeling is based on linear and exponential regression models. It can predict the tumor diameter from a set of training dataset and can alert the clinician on the state of change in diameter under treatment. We hope that these models will, eventually, be used as a tool in the planning of chemotherapy in a clinical environment
APA, Harvard, Vancouver, ISO, and other styles
50

Felisberto, Ana Paula Barbosa. "Estudos de caracterização e estabilidade de dispersões sólidas contendo ibuprofeno." Universidade Estadual da Paraíba, 2015. http://tede.bc.uepb.edu.br/tede/jspui/handle/tede/2481.

Full text
Abstract:
Submitted by Jean Medeiros (jeanletras@uepb.edu.br) on 2016-08-30T12:40:36Z No. of bitstreams: 1 PDF - Ana Paula Barbosa Felisberto.pdf: 15150593 bytes, checksum: 91492d03c403e10e2661ddddfff9d3fe (MD5)
Approved for entry into archive by Secta BC (secta.csu.bc@uepb.edu.br) on 2016-08-31T18:13:01Z (GMT) No. of bitstreams: 1 PDF - Ana Paula Barbosa Felisberto.pdf: 15150593 bytes, checksum: 91492d03c403e10e2661ddddfff9d3fe (MD5)
Made available in DSpace on 2016-08-31T18:13:01Z (GMT). No. of bitstreams: 1 PDF - Ana Paula Barbosa Felisberto.pdf: 15150593 bytes, checksum: 91492d03c403e10e2661ddddfff9d3fe (MD5) Previous issue date: 2015-08-24
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Most active pharmaceutical ingredients are made largely for being administered orally. A major challenge for medicinal products development containing Active Pharmaceutical Ingredients (APIs) with low solubility, especially Class II according to Biopharmaceutical Classification System - BCS, is to add technology to the development process in order to increase the bioavailability of these APIs and at the same time ensure their stability. Thus, the objective was to develop analytical methods to characterize lyophilized solid dispersions of ibuprofen obtained by using carboxymethylcellulose (CMC), hydroxymethylpropylcellulose (HPMC) and polyethylene glycol (PEG) 6000, comparing them in terms of thermal stability. The dispersions were characterized correlating the data obtained by the following techniques: Differential Scanning Calorimetry (DSC), Differential Scanning Calorimetry Coupled to a Photovisual System (DSC-photovisual), Thermogravimetry Analysis (TG) and Vibrational Absorption using Fourier Transform Infrared Spectroscopy (FTIR) to investigate possible physical and/or chemical interaction between the ibuprofen and its excipients. For thermal stability evaluation, the products were subjected to dynamic thermogravimetric analysis, by applying Osawa kinetic model, and to isothermal analysis by Arrhenius model at temperatures of 125, 130, 135, 140 and 145 °C, showing zero order kinetics reaction for the drug in the two models applied. According to the data obtained from the thermal analysis for the characterization and stability, the lyophilized solid dispersions containing PEG as a dispersing agent were more stable. The DSC and FTIR data showed the absence of physical and chemical interaction between the formulation components.
A maioria dos insumos farmacêuticos ativos é viabilizada em grande parte para serem administrados por via oral. Um dos grandes desafios para o desenvolvimento de medicamentos contendo Insumos Farmacêuticos Ativos (IFAs) com baixa solubilidade, em especial os de Classe II relacionados no Sistema de Classificação Biofarmacêutica – SCB, é agregar tecnologias ao processo de desenvolvimento no sentido de aumentar a biodisponibilidade destes IFAs ao mesmo tempo que possa garantir a estabilidade dos mesmos. Assim, objetivou-se desenvolver metodologias analíticas para caracterizar dispersões sólidas liofilizadas de ibuprofeno obtidas com carboximetilcelulose (CMC), hidroximetilpropilcelulose (HPMC) e polietilenoglicol (PEG) 6000, comparando-as em termos de estabilidade térmica. As dispersões foram caracterizadas correlacionando-se os dados obtidos pelas técnicas de calorimetria exploratória diferencial (DSC), calorimetria exploratória diferencial acoplada ao sistema fotovisual (DSC-fotovisual), termogravimetria (TG) e espectroscopia vibracional de absorção na região do infravermelho com transformada de Fourier (FTIR), a fim de investigar possíveis interações físicas e/ou químicas entre o ibuprofeno e seus excipientes. Para avaliação da estabilidade térmica, os produtos foram submetidos à análise termogravimétrica dinâmica, aplicando-se o modelo cinético de Osawa, e isotérmica pelo modelo de Arrhenius nas temperaturas de 125, 130, 135, 140 e 145 °C, apresentando cinética de reação de ordem zero para o fármaco nos dois modelos aplicados. De acordo com os dados obtidos a partir da análise térmica para caracterização e estabilidade, as dispersões sólidas liofilizadas contendo PEG como agente dispersante mostraram-se mais estáveis. Nos dados de DSC e FTIR mostraram a ausência de interação física e química entre os componentes da formulação.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography