Dissertations / Theses on the topic 'Imagerie quantitative en temps réel'

To see the other types of publications on this topic, follow the link: Imagerie quantitative en temps réel.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Imagerie quantitative en temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Perez, Romero Carmina Angelica. "Noise and robustness downstream of a morphogen gradient : Quantitative approach by imaging transcription dynamics in living embryos." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS306.pdf.

Full text
Abstract:
La différenciation des cellules est souvent déclenchée par les gradients de molécules appelées morphogènes. Un paradigme simple pour l’étude des morphogènes est le gradient de Bicoid, qui détermine l’identité cellulaire le long de l’axe antéro-postérieur chez la mouche du vinaigre. Ce facteur de transcription permet l'expression rapide de son principal gène cible, hunchback, dans la moitié antérieure de l’embryon dans un domaine d’expression avec une bordure très franche. En utilisant le système MS2 rendant fluorescents des ARN dans les embryons vivants, nous avons montré que la transcription au promoteur d’hunchback est « bursty ». De manière surprenante, il suffit de 3 minutes, après la première détection de transcription à l’antérieur, pour que la bordure franche du domaine d’expression soit précisément positionnée au milieu de l’embryon. Afin de mieux comprendre le rôle des facteurs de transcription autres que Bicoid dans ce processus, j’ai utilisé une double stratégie impliquant des gènes rapporteurs MS2 synthétiques combinés à l’analyse du gène rapporteur hunchback MS2 dans des contextes génétiques mutants. L’analyse des gènes rapporteurs synthétiques indique que Bicoid est capable d’activer la transcription à elle seule en se fixant sur le promoteur mais de manière stochastique. La fixation d’Hunchback sur un promoteur régulé par Bicoid réduit cette stochasticité alors que Caudal agirait comme un gradient postérieur répresseur. L’ensemble de ces travaux apporte un éclairage nouveau sur les mécanismes assurant une réponse transcriptionnelle précise en aval du morphogène Bicoid
During development, cell differentiation frequently occurs upon signaling from gradients of molecules, called morphogens. A simple paradigm to study morphogens is the Bicoid gradient, which determines antero-posterior patterning in fruit fly embryos. This transcription factor allows the rapid expression of its major target gene hunchback, in an anterior domain with a sharp boundary. Using the MS2 system to fluorescently tag RNA in living embryos, we were able to show that the ongoing transcription process at the hunchback promoter is bursty Surprisingly, it takes only 3 minutes, from the first hints of transcription at the anterior to reach steady state with the setting of the sharp expression border in the middle of the embryo. To better understand the role of transcription factors other than Bicoid in this process, I used a two-pronged strategy involving synthetic MS2 reporters combined with the analysis of the hunchback MS2 reporter in various mutant backgrounds. The synthetic reporter approach, indicate that Bicoid is able to activate transcription on its own when bound to the promoter but in a stochastic manner. The binding of Hunchback to the Bicoid-dependent promoter reduces this stochasticity while Caudal might act as a posterior repressor gradient. Altogether, this work provide a new light on the mechanisms insuring a precise transcriptional response downstream of Bicoid
APA, Harvard, Vancouver, ISO, and other styles
2

Kim, Jang-Mi. "Quantitative live imaging analysis of proneural factor dynamics during lateral inhibition in Drosophila." Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS585.pdf.

Full text
Abstract:
L’inhibition latérale par Notch est un mécanisme bien conservé au sein des espèces qui permet la formation de pattern de destins cellulaires1. Dans de nombreux tissus, la signalisation intercellulaire entre Delta et Notch coordonne dans le temps et l’espace des décisions de destin cellulaire binaires dont l’origine est proposée stochastique. Dans le contexte du développement des organes sensoriels chez la Drosophile, il a été proposé que la rupture de symétrie entre cellules équipotentes dépendait de fluctuations aléatoires dans le niveau d’expression de Delta/Notch2 (ou d’un de ses régulateurs en amont, par exemple YAP1 dans l’intestin de la souris3), avec des petites différences qui sont amplifiées et stabilisées pour générer des destins distincts. La décision cellulaire stochastique médiée par Notch peut aussi être biaisée par des facteurs intrinsèques (par exemple, l’histoire de la cellule4) ou des facteurs extrinsèques. Bien que l’inhibition latérale ait été largement étudiée dans de nombreux contextes développementaux, il manque toujours une analyse détaillée in vivo de la dynamique de l’acquisition du destin cellulaire et des signaux régulant cette décision. Ici, nous avons utilisé une approche quantitative d’imagerie en temps réel pour étudier la dynamique de spécification des organes sensoriels dans l’abdomen de la drosophile. Pour suivre la compétence des cellules à s’engager dans le destin neural et devenir une cellule précurseur des organes sensoriels (SOP), nous avons utilisé l’accumulation du facteur de transcription Scute, un régulateur majeur de la formation des organes sensoriels dans l’abdomen. Pour visionner Scute directement dans les pupes en développement, nous avons utilisé des pupes exprimant la protéine Scute taguée par une GFP. Nous avons généré des films haute résolution dans le temps et l’espace puis nous avons segmenté et traqué tous les noyaux grâce un pipeline personnalisé. Nous avons ainsi pu étudier quantitativement la dynamique de l’expression de Scute dans toutes les cellules. Après avoir défini un index de différence de destin cellulaire (FDI), nous avons trouvé que la rupture de symétrie était détectée tôt, quand les cellules exprimaient encore un niveau faible et hétérogène de Scute. Quelques rares cas de résolution tardive ont été observés c’est-à-dire quand deux cellules voisines accumulent toutes les deux un fort niveau de Scute avant d’être séparées. Il est aussi intéressant de noter que le niveau de Scute n’a pas rapidement diminué dans les cellules non sélectionnées, immédiatement après la rupture de symétrie. D’autre part, nous avons trouvé une corrélation positive entre la pente du FDI après la rupture de symétrie et l’hétérogénéité intercellulaire mesurée dans le niveau de Scute mais il reste à démontrer si l’augmentation de l’hétérogénéité est causalement liée à la rupture de symétrie. Nous avons ensuite voulu savoir si cette décision cellulaire stochastique était biaisée par l’ordre de naissance (comme proposé dans le contexte de décision AC/VU chez le C. elegans4) ou par la taille et la géométrie des contacts cellulaires (comme suggéré par une modélisation5). Nous avons trouvé qu’aucun des deux biais ne semblait influencer la décision cellulaire binaire médiée par Notch dans l’abdomen de la Drosophile. En conclusion, nos données d’imagerie fournissent une analyse quantitative détaillée de la dynamique des proneuraux pendant l’inhibition latérale chez la Drosophile
Lateral inhibition by Notch is a conserved mechanism that regulates the formation of regular patterns of cell fates1. In many tissues, intercellular Delta-Notch signaling coordinates in time and space binary fate decisions thought to be stochastic. In the context of sensory organ development in Drosophila, it has been proposed that fate symmetry breaking between equipotent cells relies on random fluctuations in the level of Delta/Notch2 (or one of their upstream regulators, e.g. YAP1 in the mouse gut3), with small differences being amplified and stabilized to generate distinct fates. Notch-mediated stochastic fate choices may also be biased by intrinsic, i.e. cell history4, or extrinsic factors. Although lateral inhibition has been extensively studied in many developmental contexts, a detailed in vivo analysis of fate and signaling dynamics is still lacking. Here, we used a quantitative live imaging approach to study the dynamics of sensory organ fate specification in the Drosophila abdomen. The accumulation of the transcription factor Scute (Sc), a key regulator of sensory organ formation in the abdomen, was used as a proxy to monitor proneural competence and SOP fate acquisition in developing pupae expressing GFP-tagged Sc. We generated high spatial and temporal resolution movies and segmented/tracked all nuclei using a custom-made pipeline. This allowed us to quantitatively study Sc dynamics in all cells. Having defined a fate difference index (FDI), we found that symmetry breaking can be detected early, when cells expressed very low and heterogeneous levels of Sc. We also observed rare cases of late fate resolution, e.g. when two cells close to each other accumulate high levels of GFP-Scute before being pulled away from each other. Interestingly, we did not observe a rapid decrease in GFP-Sc levels in non-selected cells right after symmetry breaking. Also, the rate of change of FDI values after symmetry breaking appeared to positively correlate with cell-to-cell heterogeneity in Sc levels. Whether increased heterogeneity is causally linked to symmetry breaking remains to be tested. We next addressed if this stochastic fate decision is biased by birth order (as proposed in the context of the AC/VU decision in worms4) or by the size and geometry of cell-cell contacts (as modeling suggested5). We found that neither appeared to significantly influence Notch-mediated binary fate decisions in the Drosophila abdomen. In conclusion, our live imaging data provide a detailed analysis of proneural dynamics during lateral inhibition in Drosophila
APA, Harvard, Vancouver, ISO, and other styles
3

Holländer, Matthias. "Synthèse géométrique temps réel." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Full text
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
APA, Harvard, Vancouver, ISO, and other styles
4

Wirden, Marc. "PCR quantitative en temps réel du 8ème herpesvirus humain." Paris 5, 1999. http://www.theses.fr/1999PA05P191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Holländer, Matthias. "Synthèse géométrique temps réel." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Full text
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
APA, Harvard, Vancouver, ISO, and other styles
6

Heritier, Bernard. "Contrôle en temps réel d'un imageur par résonance magnétique." Paris 11, 1987. http://www.theses.fr/1987PA112327.

Full text
Abstract:
Cette thèse décrit la conception d'une unité de contrôle temps réel, ou séquenceur, pour un système d'imagerie par RMN (Résonance Magnétique Nucléaire. Cet appareil est composé d'un module de contrôle temps réel microprogrammé, de deux modules dédiés aux commandes du spectromètre et des gradients de champ magnétique, et d'une carte unité centrale MC68000 au standard VME. Son principe de fonctionnement est basé sur la mémorisation préalable des données qui définissent une ou plusieurs séquences d'impulsions de commande. Notre approche du concept de séquence nous a amené à introduire la notion de séquence élémentaire et à définir un jeu d'opérations entre séquences pour la constitution de séquences plus complexes. Ceci nous permet de séparer les paramètres qui caractérisent la structure globale d'une séquence de ceux qui décrivent temporellement l'amplitude de chaque canal de sortie. Cette distinction conduit naturellement à deux types de données mémorisées dans le séquenceur et à une programmation nettement plus structurée de l'appareil. L'architecture induite par cette structure de données fait de ce séquenceur une unité de contrôle évolutive et aisément adaptable à d'autres applications demandant un contrôle en temps réel. Le module de contrôle temps réel réalise le traitement des données de structure et l'implantation des opérations entre séquences. Il contrôle simultanément l'émission des signaux dont les caractéristiques sont mémorisées dans les autres modules. Les programmes résidents ont pour but principal la gestion des différentes mémoires du séquenceur. L'intégration de l'appareil dans nos systèmes d'imagerie ainsi que la définition d'une méthodologie de programmation à la fois synthétique et naturelle demandent le développement d'un important logiciel.
APA, Harvard, Vancouver, ISO, and other styles
7

Rousseau, Pierre. "Simulation réaliste de pluie en temps-réel." Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/3f454603-f27d-4f2f-bf00-b6f2b7e7d51e/blobholder:0/2007LIMO4019.pdf.

Full text
Abstract:
La simulation de phénomènes naturels occupe une place importante en synthèse d'images. Elle permet d'améliorer le réalisme des scènes représentées, en rappelant à l'observateur des éléments de son environnement quotidien. Parmi ces phénomènes, la pluie est l'un des plus courant dans la nature ; peu d'études y avaient pourtant été consacrées avant une époque récente. Dans cette thèse, nous étudions à la fois le rendu des gouttes d'eau, et leur animation. Nous proposons des modèles adaptés aux problématiques des jeux vidéos et des simulateurs de conduite, permettant une simulation visuellement réaliste de la pluie en temps-réel. Nous présentons dans un premier temps les travaux existants en synthèse d'images, portant sur le rendu des gouttes d'eau et sur l'animation de particules sur carte graphique. Dans le second chapitre, nous présentons les propriétés physiques des gouttes d'eau, sur lesquelles nous avons basé nos travaux. Le troisième chapitre introduit le modèle de rendu des gouttes que nous avons proposé, permettant une simulation réaliste du phénomène de réfraction observable au travers des gouttes d'eau. Des extensions à ce modèle, permettant de simuler l'impression visuelle liée au phénomène de persistance rétinienne, et le changement d'apparence des gouttes de pluie en présence de sources de lumière, sont également présentées. Le quatrième chapitre introduit le modèle de simulation de la dynamique des gouttes que nous avons développé. Les particules, animées par une approche GPGPU, rebondissent en cas de collision avec un objet présent dans la scène observée. Grâce à une interface spécifique, l'utilisateur a la possibilité de modéliser intuitivement un vent pouvant modifier les trajectoires suivies par les particules. Les résultats que nous avons obtenus sont présentés dans le cinquième chapitre
Natural phenomena simulation is an important topic in computer graphics. It helps improving realism of displayed scenes, reminding the observer of elements from his daily environment. Amongst these phenomena, rain is one of the most frequent ; few studies had nevertheless been led upon it until recently. In this thesis, we study water-drops rendering, as well as their animation. We propose models enabling visually realistic real-time simulation of rainfalls, which are adapted to the needs of video-games and driving simulators. We first describe the previous works in computer graphics dealing with water-drop rendering, and GPU-based particle animation. In the second chapter, we present the physical properties of raindrops, upon which we built our models. The third chapter introduces the raindrop rendering model we proposed for realistic simulation of the refraction phenomenon which can be observed in raindrops. Extensions to this model are then presented, to simulate the visual phenomenon of retinal persistance, and the change in raindrops' appearance due to illumination from light sources. The fourth chapter introduces the dynamics simulation model we developped. Particles are animated through a GPGPU approach, and bounce when they collide with objects in the scene. Using a dedicated interface, the user can intuitively design wind which alters particles' motion. The results we obtained are presented in the fifth chapter
APA, Harvard, Vancouver, ISO, and other styles
8

Zimmer, Jean-Philippe. "Modélisation de visage en temps réel par stéréovision." Dijon, 2001. http://www.theses.fr/2001DIJOS033.

Full text
Abstract:
La perception de la troisième dimension est rendue possible par différents signaux monoculaires et par la vision binoculaire. L'intérêt pour la vision binoculaire provient de l'emploi croissant de la troisième dimension dans les domaines de vision par ordinateurs, de réalité virtuelle, de l'infographie ou de la robotique. Les traitements se basent souvent sur la stéréovision, technique qui consiste à reconstruire des données en trois dimensions à partir d'acquisitions d'au moins deux prises de vues. Le but principal de ces traitements est de mettre en correspondance les points dans les deux images. Dans le chapitre 1, nous passons en revue les mécanismes de perception de la profondeur grâce à la stéréovision. Nous abordons la notion de disparité et nous l'estimons grâce à des critères géométriques. Ces critères nous permettent de déterminer un réglage optimum du capteur stéréoscopique. Nous montrons que le gradient de disparité peut être utilisé pour la reconnaissance de visages. Nous étudions, dans le chapitre 2, les méthodes qui conduisent au calibrage des caméras. On peut ajouter à cette étape un traitement de rectification des images. Cela permet de mettre en correspondance les lignes des images du couple stéréo, et de travailler dans une dimension seulement. Le chapitre 3 aborde la partie traitement numérique qui permet la recherche des points en correspondance ou points homologues. Nous passons en revue les principales méthodes développées pour la constitution de cartes de profondeur denses. Des tests comparatifs sont réalisés avec une série de visages. Nous en déduisons la méthode appropriée pour une modélisation de visages temps-réel. Nous proposons dans le chapitre 4, une implantation temps-réel, basée sur une approche hybride permettant d'envisager un traitement embarqué. Une version optimisée de l'algorithme de mise en correspondance est proposée. Enfin, nous détaillons les structures matérielles pour réaliser la chaîne algorithmique en temps-réel.
APA, Harvard, Vancouver, ISO, and other styles
9

Rode, Nicolas. "Microévolution en temps réel : étude quantitative dans les populations naturelles d'Artemia spp." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20119/document.

Full text
Abstract:
La compréhension des processus microévolutifs ayant lieu dans la nature nécessite la quantification des principales forces sélectives s'exerçant sur les populations sauvages. Ces 10 dernières années, les études à long terme et l'écologie de la résurrection (qui fait revivre des stades en dormance) ont été les principales approches pour étudier l'évolution des traits d'histoire de vie sur plusieurs générations dans les populations sauvages. Mon travail consiste à comprendre comment des facteurs écologies simples (p. ex. la température) et des interactions interspécifiques ou intraspécifiques plus complexes (p. ex. les interactions antagonistes hôte-parasite ou mâle-femelle) façonnent le processus évolutif des populations sauvages. Dans cette optique, j'ai utilisé l'Artémia comme un organisme modèle, en combinant des études sur le terrain et en laboratoire. Premièrement, j'ai étudié l'évolution de la niche thermique avec une approche d'écologie de la résurrection, en utilisant une série temporelle d'œufs de dormance d'une population d' introduite à partir de marais salants de régions tempérées dans des marais salants tropicaux dans les années 80. Cette étude montre que la survie aux températures élevées (caractéristiques du nouvel environnement) a augmenté linéairement au cours du temps à partir de l'introduction, suggérant un taux d'adaptation constant sur plus de 100 générations. Deuxièmement, j'ai utilisé une approche similaire pour étudier l'adaptation entre males et femelles dans une autre population d'Artémia. Cette étude suggère que les conflits sexuels provoquent une dynamique de coévolution fluctuante dans la nature sur une échelle d'environ 100 générations. Troisièmement, j'ai étudié les impacts respectifs de différents parasites (une espèce de cestode et deux espèces de microsporidie) sur la compétition entre une espèce d'hôte autochtone asexuée et une espèce d'hôte invasive sexuée. Chacun des trois parasites étaient soit spécialiste d'une espèce ou de certains génotypes d'hôte. De plus, l'espèce de cestode dont l'effet castrateur chez l'hôte est bien connu infectait uniquement l'espèce autochtone, suggérant que ce parasite joue un rôle majeur dans la compétition entre les espèces d'hôte autochtones et invasives. Par ailleurs, les trois espèces de parasite semblaient manipuler le comportement d'agrégation de leur hôte, très probablement pour augmenter leur transmission à de nouveaux hôtes. Enfin, j'ai réalisé des études de génétiques des populations d'espèces asexuées diploïdes et polyploïdes d'Artemia et d'espèces sexuées asiatiques proches. Les espèces asexuées diploïdes produisent des mâles rares et il semblerait que ceux-ci permettent une faible fréquence de reproduction sexuée. De plus, l'hybridation d'espèces d'Artémia éloignée phylogénétiquement a donné naissance à au moins trois lignées polyploïdes indépendantes
Getting a comprehensive understanding of microevolution in natural populations requires proper quantification of the important selective forces exerted on these populations. Over the last decade, long-term studies and resurrection-ecology (revival of resting stages) have been the main approaches to study life history trait evolution over many generations in the wild. My work aims at understanding how simple ecological factors (e.g. temperature) and complex interactions between and within species (host-parasite and male-females antagonistic interactions) shape evolutionary processes in natural populations. To this end, I used the brine shrimp Artemia as a model system and combined laboratory and field studies. First, I investigated thermal niche evolution with a resurrection ecology approach, using dormant-egg time series from an Artemia population introduced from temperate to tropical salterns in the mid-80's. This experiment shows that survival at the high temperatures typical of the new environment increased linearly through time after the introduction, suggesting a sustained rate of adaptation over more than 100 generations. Second, I used the same approach to study adaptation between sexes in another Artemia population. I found that sexual conflicts result in fluctuating male-female coevolutionary dynamics in natura, over a time scale of ~100 generations. Third, I studied the relative role of one cestode and two microsporidian parasites in mediating the competition between a native asexual host and an invasive bisexual host. I found that all three parasites were either host- or genotype-specific and that the castrating cestode parasite specifically infected the native species, suggesting that this parasite actually played a major role in the competition between native and invasive hosts. Interestingly, all three parasites manipulated the swarming behavior of their host, most likely to increase their transmission. Fourth, I performed population genetic studies of diploid and polyploid Artemia parthenogenetica and their Asian bisexual close relatives. Diploid asexual Artemia produce rare males and I found indication that these males allow some rare sex in this otherwise parthenogenetic species. In addition, hybridization between divergent Artemia species has led to the origin of at least three independent polyploid lineages
APA, Harvard, Vancouver, ISO, and other styles
10

Denis, de Senneville Baudouin. "Correction des mouvements pour la thermométrie temps réel guidée par IRM." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13123.

Full text
Abstract:
L'hyperthermie locale s'est développée en pratique clinique comme un outil d'ablation de tumeurs non opérables. Le principe de base est simple : l'exposition des cellules à une élévation de température, pendant une durée suffisante, cause leur mort. Un contrôle continu, en ligne, de l'évolution de la température est également nécessaire pendant l'intervention, ainsi qu'une estimation immédiate de l'efficacité du traitement. Des algorithmes d'asservissement permettent d'ajuster automatiquement les paramètres de contrôle de l'outil de chauffage afin que la température dans une zone ciblée atteigne une consigne le plus vite possible et reste constante pendant un temps déterminé. Ces techniques permettent ainsi un contrôle automatique de la température, destiné à détruire une région définie par le radiologue. Toutefois, pour garantir la qualité du traitement, le système d'asservissement doit permettre, pour les mouvements du cycle respiratoire et cardiaque en temps réel, les corrections qui importent. Le temps réel veut dire ici que le temps de calcul effectué sur les images doit être inférieur au temps d'acquisition des images par l'IRM. Des algorithmes de traitement d'images effectués sur les images fournies par le reconstructeur, sont utilisés pour améliorer la stabilité de la thermométrie et réaliser en ligne l'hyperthermie locale sur des organes mobiles.
APA, Harvard, Vancouver, ISO, and other styles
11

Naudot, Marie. "Caractérisation par imagerie en temps réel de cultures cellulaires hépatiques en biopuces microfluidiques." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00965539.

Full text
Abstract:
Le développement de méthodes alternatives à la culture in vivo pour l'évaluation de la toxicité des molécules chimiques s'est accéléré ces dernières années, l'objectif étant de limiter l'utilisation d'animaux. Préconisés par l'OCDE (Organisation de coopération et de développement économiques), ces modèles alternatifs visent à mimer les conditions physiologiques en employant des systèmes in vitro ou in silico. Parmi les différents systèmes développés, les biopuces microfluidiques ont prouvé leur contribution à l'amélioration des fonctions cellulaires, ce qui permet des études toxicologiques pertinentes. Les travaux de ce doctorat sont basés sur l'emploi de ces biopuces pour cultiver des hépatocytes (cellules du foie) et portent sur la mise au point d'une méthode d'analyse d'images issues de ces cultures sous microscope au cours du temps. L'acquisition d'images tout au long de l'expérience permet de suivre, après traitement, l'évolution et le comportement des cellules au contact de molécules chimiques et d'évaluer les réponses toxicologiques. Les premiers résultats de ces travaux ont permis l'amélioration du procédé de culture microfluidique adaptée au matériel d'acquisition d'images, la sélection de sondes fluorescentes, et le choix d'un algorithme de traitement des images sur CellProfiler. Cela nous a permis de quantifier et caractériser certaines fonctions biologiques au sein de la biopuce comme l'activité mitochondriale. Le potentiel de cet outil pour évaluer la toxicité de molécule a été testé grâce à l'emploi d'un toxique connu : la staurosporine. Les résultats obtenus ont révélé l'impact de la mise en culture en dynamique sur le comportement des hépatocytes, et la toxicité de la staurosporine visible en biopuce.
APA, Harvard, Vancouver, ISO, and other styles
12

Hazebroucq, Vincent. "Télétransmission en temps réel d'images radiologiques numériques : aspects techniques, médicaux et juridiques." Paris 5, 1999. http://www.theses.fr/1999PA05CD14.

Full text
Abstract:
Ce travail compare une expérimentation franco-québécoise d'un protrotype de télétransmission en temps réel entre deux scanners X à l'utilisation en routine d'une station de téléradiologie du réseau de téléradiologie d'Ile-de-France (Télif) et fait, à ce propos, la revue des aspects techniques, médicaux, économiques, déontologiques, juridiques et éthiques de la téléradiologie. La première section, technique, montre que si l'on dispose de documents numérisés ou numérisables, leur transmission, comme d'ailleurs leur archivage, sont désormais possibles à un coût raisonnable. Notre expérience franco-canadienne montre qu'il est possible de pratiquer des téléexpertises interactives immédiates grâce au dispositif présenté, lequel associe la visioconférence, le transfert intégral des fichiers numériques des images au standard DICOM 3. 0, et un télépilotage d'un scanner X par un autre. La deuxième section, médicale et économique étudie la fiabilité de la téléradiologie, de la compression informatique des images, puis l'acceptabilité de la téléradiologie. Elle aborde ensuite les bouleversements de la pratique radiologique que la téléradiologie peut entraîner, en éloignant encore plus le praticien de son patient, le télé-enseignement et les résultats des études médico-économiques en faveur de la téléradiologie. La troisième section analyse les questions déontologiques, juridiques et éthiques soulevées par ce progrès : Les droits du patient, les problèmes de responsabilité, d'honoraires de localisation juridique d'un acte de téléradiologie, ou de propriété des données médicales, puis les cas particuliers de la télémédecine des prisons et des zones rurales. Des bouleversements majeurs de l'exercice médical se profilent donc pour le troisième millénaire, envisagés dans la conclusion.
APA, Harvard, Vancouver, ISO, and other styles
13

Triquet, Frédéric. "Habillage de modèles mécaniques : facettisation temps réel de surfaces implicites." Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-255-256.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre des simulateurs chirurgicaux pédagogiques développés au LIFL. Ces simulateurs nécessitent l'animation temps réel de corps basée sur la physique. C'est l'objet de notre bibliothèque SPORE qui permet entre autres de construire un objet géométrique détaillé autour d'un modèle mécanique généralement trop grossier pour être affiché directement. Cette opération s'appelle l'habillage. Mon travail de thèse s'est intéressé à ce procédé géométrique. En particulier, les surfaces implicites à squelette forment une possibilité intéressante pour fournir un habillage puisqu'elles permettent, grâce à l'opération de mélange appelée blending, d'obtenir des formes complexes à partir de quelques points mécaniques. Cependant, ces surfaces nécessitent des algorithmes spécifiques pour leur affichage. Je me suis basé sur l'algorithme des Marching Cubes, réputé lent, mais en l'enrichissant de plusieurs améliorations combinées à des structures de données efficaces et des algorithmes optimisés. Ces améliorations ne se bornent pas qu'à des accélérations : j'apporte également aux problèmes de facettisations ambigues une solution compatible avec nos contraintes de temps-réel. De plus, grâce à une méthode originale mon implantation peut controler le blending en permettant à l'utilisateur de spécifier là où les fonctions de mélange des surfaces implicites doivent s'appliquer. Mon implantation en C++, sous forme de librairie, permet de facettiser en temps réel des surfaces composées de plusieurs centaines de primitives sur un ordinateur de gamme moyenne. Nous l'utilisons dans un simulateur.
APA, Harvard, Vancouver, ISO, and other styles
14

Soustelle, Lucas. "Imagerie de la myéline par IRM à temps d'écho ultracourt." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD009/document.

Full text
Abstract:
L'évaluation non-invasive de la myéline dans la substance blanche du système nerveux central est fondamentale pour le suivi de pathologies telles que la sclérose en plaques. La myéline est majoritairement constituée de lipides et de protéines : du fait des nombreuses interactions dans ces macromolécules, les temps de relaxation transversale sont très courts (T2 < 1 ms), rendant indétectables ces signaux par des séquences conventionnelles. Les méthodes standards d’imagerie par RMN pour la caractérisation de la myéline reposent sur la modélisation des interactions entre les protons aqueux et la structure myélinisée. Néanmoins, la sélectivité et la robustesse de ces méthodes indirectes peuvent être remises en cause. Les séquences à temps d’écho ultracourt (UTE – TE < 1 ms) permettraient de faire l’acquisition directe des signaux issus de la matrice semi-solide de la myéline. Le développement de telles méthodes pour la mise en contraste positif et sélectif de la myéline sur système préclinique est l’objet de cette thèse. La validation de chacune des méthodes a été menée sur modèle murin ex vivo en confrontant des animaux sains et démyélinisés. Les résultats à partir des méthodes UTE montrent une sélectivité significative à la démyélinisation, suggérant l’adéquation de la technique pour l'évaluation de la myéline dans la substance blanche
Non-invasive evaluation of white matter myelin in the central nervous system is essential for the monitoring of pathologies such as multiple sclerosis. Myelin is essentially composed of lipids and proteins: because of the numerous interactions between these macromolecules, the transverse relaxation times are very short (T2 < 1 ms), and their signals are undetectable using conventional sequences. Standard MRI methods for the characterization of myelin rely on the modeling of the interactions of aqueous protons with myelinated structures. Nonetheless, the selectivity and robustness of such indirect methods are questionable. Ultrashort echo time sequences (UTE – TE < 1 ms) may allow to directly detect the signals arising from the semi-solid spin pool of myelin. The main objective of this thesis consists in developing such methods in order to generate a positive and selective contrast of myelin using a preclinical imaging system. Validation of each method was carried out using an ex vivo murine model by confronting healthy and demyelinated animals. Results show a significant selectivity of the UTE methods to demyelination, suggesting that the technique is promising for white matter myelin monitoring
APA, Harvard, Vancouver, ISO, and other styles
15

Selmi, Sonia Yuki. "Navigation en temps-réel pour la biopsie de prostate." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM065/document.

Full text
Abstract:
Le cancer de la prostate est devenu depuis deux décennies le cancer le plus fréquent de l’homme dans le monde et représente la troisième cause de décès par cancer chez l’homme en France. La biopsie de prostate est l’examen de confirmation diagnostique standard de ce cancer. Elle permet, par des prélèvements systématisés ou dirigés vers une cible, l’analyse anatomopathologique du tissu prostatique. Guidée par échographie transrectale, l’objectif de la biopsie est de réaliser une cartographie prostatique avec une série de prélèvements multiples bien distribués dans le volume de la prostate. Cependant, la réalisation de biopsies de prostate présente de nombreuses difficultés pour le clinicien car le geste demande une représentation 3D d’un organe très déformable et mobile. Ainsi l’accès à une cartographie précise des biopsies effectuées a un intérêt pour l’amélioration de la qualité des biopsies, la traçabilité des biopsies et l’apprentissage du geste.En partant de ce constat clinique, l’objectif de cette thèse est la conception d’un système de suivi pour la navigation et le guidage de la biopsie de prostate écho-guidée par voie rectale compatible avec une application clinique. Notre approche se base sur une méthode de recalage 2D-3D rigide, qui met en correspondance une image 2D échographique et un volume échographique de référence acquis en début de procédure. Le recalage 2D-3D d’images échographiques est complexe parce que l’information hors-plan n’est pas présente dans l’image 2D et les images échographiques sont très bruitées. Nous avons développé une méthode, dite hybride, qui consiste en la mise en correspondance de caractéristiques de l’image à partir d’une distance basée sur les intensités de pixels/voxels et sur une proximité euclidienne. La précision et robustesse de l’algorithme ont été évaluées sur des données de 20 patients acquises durant des procédures de biopsies de prostate dans deux centres hospitaliers français. Nous avons montré que l’amélioration de la TRE avant et après recalage est statistiquement significative. Près de 75% des TRE obtenues étaient inférieures à 5mm, qui est le seuil clinique de significativité des tumeurs.Par la suite, nous avons mis en application la méthode de recalage dans le cadre du suivi. Une expérimentation sur fantôme prostatique intégrant une sonde équipée d’un capteur de localisation est réalisée pour déterminer la faisabilité et l’apport en termes de précision pour la navigation pour la biopsie de prostate. Les premiers résultats obtenus par notre méthode de suivi montrent une preuve de concept approfondie pour une application clinique. L’information donnée par le capteur inertiel est difficile à exploiter de manière optimale. De nouvelles expérimentations dans des conditions plus favorables devraient être réalisées. Les premiers résultats du suivi sont malgré tout prometteurs dans l’objectif d’une application clinique.La perspective principale pour la méthode de suivi est son intégration dans la plateforme MIRAS, (commercialisée par Koelis) pour continuer l’évaluation. L’ajustement de la méthode et l’amélioration des temps de calcul sont les deux axes majeurs à approfondir pour faire naı̂tre un premier prototype de guidage temps-réel pour la biopsie de prostate. La collaboration de longue date entre les cliniciens et chercheurs de ce projet est un atout essentiel pour la future validation clinique
Prostate cancer is the most common cancer world-wide for males and the second leading cause of cancer death in France. Prostate biopsy procedures, performed to obtain and analyze tissue samples of the gland, are required for diagnosis. The clinical standard protocol is currently performed under UltraSound (US) control following a systematic protocol. Unfortunately, prostate cancer diagnosis is complicated by the lack of image quality and the low intrinsic contrast between tumor and non-tumor on US images. Conventional biopsies are performed under Transrectal UltraSound (TRUS) guidance. Precisely localizing the biopsy sites is challenging because the gland has a symmetric shape and because the prostate moves and is deformed by the patient motion and the TRUS probe pressure.This work aims at designing a system for navigated prostate biopsies combining a low-cost tracking system and a 2D-3D US registration method. To achieve this objective, our approach is based on hybrid 2D-3D ultrasound (US) rigid registration method for navigated prostate biopsy that enables continuous localization of the biopsy trajectory during the exam.Accuracy and robusteness was evaluated on a significant patient data set recorded in routine uncontrolled conditions from two different hospitals. The results show that 75% of the cases with error less than 5mm, which is clinically acceptable.Thereafter, we developed experiments to evaluate the tracking. The method was tested in a prostate phantom and a probe tracking by a inertial sensor. It was shown that it can do a better localization than and inertial measurement unit. Those first results obtained by our tracking method have established a proof of concept for a future clinical application. We highlighted that the sensor data are complex to exploit in optimal conditions. Additional experiments sould be performed in more realistic conditions.The method adjustment and the computing time-enhancement are the two main approaches to develop to create a first prototype of real-time tracking for navigated prostate biopsy. The long-standing cooperation between clinicians and researchers is an essential asset for a future clinical validation
APA, Harvard, Vancouver, ISO, and other styles
16

Bleron, Alexandre. "Rendu stylisé de scènes 3D animées temps-réel." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM060/document.

Full text
Abstract:
Le but du rendu stylisé est de produire un rendud'une scène 3D dans le style visuel particuliervoulu par un artiste.Cela nécessite de reproduire automatiquementsur ordinateur certaines caractéristiquesd'illustrations traditionnelles: par exemple,la façon dont un artiste représente les ombres et lalumière, les contours des objets, ou bien les coupsde pinceau qui ont servi à créer une peinture.Les problématiques du rendu stylisé sont pertinentesdans des domaines comme la réalisation de films d'animation 3Dou le jeu vidéo, où les studios cherchent de plus en plus à se démarquerpar des styles visuels originaux.Dans cette thèse, nous explorons des techniques destylisation qui peuvent s'intégrer dans des pipelinesde rendu temps-réel existants, et nous proposons deux contributions.La première est un outil de création de modèles d'illuminationstylisés pour des objets 3D.La conception de ces modèles est complexe et coûteuse en temps,car ils doivent produire un résultat cohérentsous une multitude d'angles de vue et d'éclairages.Nous proposons une méthode qui facilite la créationde modèles d'illumination pour le rendu stylisé,en les décomposant en sous-modèles plus simples à manipuler.Notre seconde contribution est un pipeline de rendude scènes 3D dans un style peinture,qui utilise une combinaison de bruits procéduraux 3Det de filtrage en espace écran.Des techniques de filtrage d'image ont déjà été proposéespour styliser des images ou des vidéos:le but de ce travail est d'utiliser ces filtres pourstyliser des scènes 3D tout en gardant la cohérence du mouvement.Cependant, directement appliquer un filtreen espace écran produit des défauts visuels au niveau dessilhouettes des objets.Nous proposons une méthode qui permet d'assurer la cohérence du mouvement,en guidant les filtres d'images avec des informations sur la géométrie extraites de G-buffers, et qui élimine les défauts aux silhouettes
The goal of stylized rendering is to render 3D scenes in the visual style intended by an artist.This often entails reproducing, with some degree of automation,the visual features typically found in 2D illustrationsthat constitute the "style" of an artist.Examples of these features include the depiction of light and shade,the representation of the contours of objects,or the strokes on a canvas that make a painting.This field is relevant today in domains such as computer-generated animation orvideo games, where studios seek to differentiate themselveswith styles that deviate from photorealism.In this thesis, we explore stylization techniques that can be easilyinserted into existing real-time rendering pipelines, and propose two novel techniques in this domain.Our first contribution is a workflow that aims to facilitatethe design of complex stylized shading models for 3D objects.Designing a stylized shading model that follows artistic constraintsand stays consistent under a variety of lightingconditions and viewpoints is a difficult and time-consuming process.Specialized shading models intended for stylization existbut are still limited in the range of appearances and behaviors they can reproduce.We propose a way to build and experiment with complex shading modelsby combining several simple shading behaviors using a layered approach,which allows a more intuitive and efficient exploration of the design space of shading models.In our second contribution, we present a pipeline to render 3D scenes in painterly styles,simulating the appearance of brush strokes,using a combination of procedural noise andlocal image filtering in screen-space.Image filtering techniques can achieve a wide range of stylized effects on 2D pictures and video:our goal is to use those existing filtering techniques to stylize 3D scenes,in a way that is coherent with the underlying animation or camera movement.This is not a trivial process, as naive approaches to filtering in screen-spacecan introduce visual inconsistencies around the silhouette of objects.The proposed method ensures motion coherence by guiding filters with informationfrom G-buffers, and ensures a coherent stylization of silhouettes in a generic way
APA, Harvard, Vancouver, ISO, and other styles
17

Brion, Véronique. "Imagerie de diffusion en temps-réel : correction du bruit et inférence de la connectivité cérébrale." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00821493.

Full text
Abstract:
La plupart des constructeurs de systèmes d'imagerie par résonance magnétique (IRM) proposent un large choix d'applications de post-traitement sur les données IRM reconstruites a posteriori, mais très peu de ces applications peuvent être exécutées en temps réel pendant l'examen. Mises à part certaines solutions dédiées à l'IRM fonctionnelle permettant des expériences relativement simples ainsi que d'autres solutions pour l'IRM interventionnelle produisant des scans anatomiques pendant un acte de chirurgie, aucun outil n'a été développé pour l'IRM pondérée en diffusion (IRMd). Cependant, comme les examens d'IRMd sont extrêmement sensibles à des perturbations du système hardware ou à des perturbations provoquées par le sujet et qui induisent des données corrompues, il peut être intéressant d'investiguer la possibilité de reconstruire les données d'IRMd directement lors de l'examen. Cette thèse est dédiée à ce projet innovant. La contribution majeure de cette thèse a consisté en des solutions de débruitage des données d'IRMd en temps réel. En effet, le signal pondéré en diffusion peut être corrompu par un niveau élevé de bruit qui n'est plus gaussien, mais ricien ou chi non centré. Après avoir réalisé un état de l'art détaillé de la littérature sur le bruit en IRM, nous avons étendu l'estimateur linéaire qui minimise l'erreur quadratique moyenne (LMMSE) et nous l'avons adapté à notre cadre de temps réel réalisé avec un filtre de Kalman. Nous avons comparé les performances de cette solution à celles d'un filtrage gaussien standard, difficile à implémenter car il nécessite une modification de la chaîne de reconstruction pour y être inséré immédiatement après la démodulation du signal acquis dans l'espace de Fourier. Nous avons aussi développé un filtre de Kalman parallèle qui permet d'appréhender toute distribution de bruit et nous avons montré que ses performances étaient comparables à celles de notre méthode précédente utilisant un filtre de Kalman non parallèle. Enfin, nous avons investigué la faisabilité de réaliser une tractographie en temps-réel pour déterminer la connectivité structurelle en direct, pendant l'examen. Nous espérons que ce panel de développements méthodologiques permettra d'améliorer et d'accélérer le diagnostic en cas d'urgence pour vérifier l'état des faisceaux de fibres de la substance blanche.
APA, Harvard, Vancouver, ISO, and other styles
18

Meyer, Christophe. "Adaptation temps réel de l'acquisition en imagerie par résonance magnétique en fonction de signaux physiologiques." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0272/document.

Full text
Abstract:
L'Imagerie par Résonance Magnétique de la cinématique de la contraction cardiaque est une technique d'imagerie relativement lente. En comparaison, les mouvements du patient, en particulier cardiaque et respiratoire, sont rapides et peuvent provoquer des artéfacts sur les images. La vitesse de contraction cardiaque apporte justement des informations cliniquement utiles. Premièrement, nous avons montré qu'il était possible d'effectuer cette mesure en IRM Cine à contraste de phase, et d'obtenir des valeurs similaires à celles obtenues de façon clinique en échographie cardiaque. La condition est d'obtenir une haute résolution temporelle, or, pour ce faire, la durée d'acquisition doit être plus longue qu'une apnée. La gestion du mouvement respiratoire en respiration libre a été réalisée de deux façons : avec moyennage puis avec correction de mouvement à l'aide de Cine-GRICS. Deuxièmement, pour atteindre une bonne reconstruction de la résolution temporelle en Cine, nous avons proposé une gestion temps réel de la variation du rythme cardiaque pendant l'acquisition IRM Cine, avec la construction d'un modèle cardiaque adapté au patient à l'aide de l'IRM à contraste de phase temps réel. Enfin, la gestion du mouvement cardio-respiratoire en IRM Cine est appliquée chez le petit animal à l'aide d'écho navigateurs IntraGate
Cine MRI of cardiac contraction is a relatively slow imaging technique. Comparatively, patient motion, especially cardiac beating and breathing, are fast and can lead to imaging artefacts. Cardiac contraction velocity provides clinically useful information. Firstly, we have shown that making this measurement was possible using phase contrast Cine MRI, and that getting similar values as those obtained in clinical routine using cardiac echography. The condition is to reach high temporal resolution, but to do so, the acquisition duration must be longer than a breathhold. Free-breathing motion management was done by two approaches: by averaging then by motion compensation using Cine-GRICS. Secondly, in order to achieve high temporal resolution Cine reconstruction, we proposed a way to deal with changing heart rate during Cine MRI acquisition, by the construction of a patient adapted cardiac model using realtime phase contrast MRI. Finally, cardio-respiratory motion management was adapted to small animal Cine MRI thanks to IntraGate echo navigators
APA, Harvard, Vancouver, ISO, and other styles
19

Bassil, Nathalie. "Système de biopuce optique en temps réel : application au diagnostic génétique." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00008933.

Full text
Abstract:
Les puces à ADN, ont vu le jour à la fin du vingtième siècle. L'utilisation de l'Imagerie par Résonance des Plasmons de Surface dans de tels outils est très prometteuse. En effet, cette technique permet de suivre en temps réel et en parallèle, sans l'usage de marqueur, différentes interactions se déroulant sur une surface métallique. Elle nous a servi pour analyser les interactions ADN/ADN dans le but du diagnostic génétique. Pour cela nous avons fixé des molécules d'ADN biotinylées sur une surface d'or par l'intermédiaire d'une structure auto-assemblée composée successivement un acide thiolé, d'un polymère chargé positivement et de l'ExtrAvidine. L'analyse des interactions ADN/ADN montre que le système employé permet de distinguer la formation d'un double brin d'ADN totalement complémentaires de celle d'un double brin avec une mutation. Cette distinction est nette pour une délétion. Le cas plus subtil d'une substitution nous a poussé à examiner l'effet de la longueur des ADN sur la réponse optique du système. Cette étude a fait ressortir l'influence de la température de fusion des séquences sur le signal obtenu. La représentation des résultats en fonction de ce dernier paramètre a permis de les modéliser, d'expliquer la différence de comportement des diverses molécules utilisées et de prédire le résultat des hybridations entre oligonucléotides quelconques. Ainsi, pour valider notre modèle, nous avons conçu un ensemble de séquences capable de révéler six des plus fréquentes mutations de la mucoviscidose. Les résultats expérimentaux sont en bon accord avec les résultats théoriques. Les premiers essais de diagnostic génétique sont prometteurs.
APA, Harvard, Vancouver, ISO, and other styles
20

Itthirad, Frédéric. "Acquisition et traitement d'images 3D couleur temps réel." Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4011.

Full text
Abstract:
Les capteurs 3D existants sont encore peu utilisés et ne permettent que l’acquisition de données 3D. En cas de nécessité de données 2D monochrome ou couleur, il faut alors obligatoirement ajouter un capteur supplémentaire et procéder au recalage des données. La société NT2I a décidé de développer sa propre solution afin de pouvoir rester maître de la chaîne d’acquisition. Mon travail a consisté en la conception d’un capteur spécifique intégrant couleur et calibration et au traitement des images issues de celui-ci. Pour cela, j’ai été amené à travailler sur l’extension du modèle LIP (Logarithmic Image Processing) pour des images couleur et à l’implémentation d’algorithmes temps réel
The existing 3D sensors aren’t much used and are only capable of capturing 3D dat. When 2D data are necessary, one has to use another camera and correlate the 2 images. NT2I has decided to develop its own solution in order to control the acquisition chain. My work has been to develop a specific camera with color, calibration, and image processing algorithms. In that purpose, I've worked on the extension of the LIP model (Logarithmic Image Processing) for color images and on the implementation of real time algorithms
APA, Harvard, Vancouver, ISO, and other styles
21

Filali, Wassim. "Détection temps réel de postures humaines par fusion d'images 3D." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/3088/.

Full text
Abstract:
Cette thèse est centrée sur un projet de recherche en vision. Il s'agit d'un projet qui permet à des caméras intelligentes de comprendre dans quelle posture se trouve la personne filmée. Cela permet de savoir si la personne se porte bien ou si elle est dans une situation critique ou de danger. Les caméras ne doivent pas être connectées à un ordinateur, mais avoir toute l'intelligence embarquée dans la caméra même. Ce travail s'appuie sur des technologies récentes comme le capteur Kinect de la console de jeu. Ce type de capteur est un capteur de profondeur, c'est-à-dire que la caméra peut estimer la distance qui la sépare de chaque point de la scène. Notre contribution consiste à combiner plusieurs de ces caméras pour avoir une meilleure reconstruction de la posture de la personne. Nous avons créé une base de données d'images qui a permis d'apprendre au programme comment reconnaître les postures. Nous avons ajusté les bons paramètres à notre programme et on l'a comparé au programme du Kinect
This thesis is based on a computer vision research project. It is a project that allows smart cameras to understand the posture of a person. It allows to know if the person is alright or if it is in a critical situation or in danger. The cameras should not be connected to a computer but embed all the intelligence in the camera itself. This work is based on the recent technologies like the Kinect sensor of the game console. This sensor is a depth sensor, which means that the camera can estimate the distance to every point in the scene. Our contribution consists on combining multiple of these cameras to have a better posture reconstruction of the person. We have created a dataset of images to teach the program how to recognize postures. We have adjusted the right parameters and compared our program to the one of the Kinect
APA, Harvard, Vancouver, ISO, and other styles
22

Bai, Yuhui. "Compression temps réel de séquences d'images médicales sur les systèmes embarqués." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0743.

Full text
Abstract:
Dans le domaine des soins de santé, l'imagerie médicale a rapidement progressé et est aujourd'hui largement utilisés pour le diagnostic médical et le traitement du patient. La santé mobile devient une tendance émergente qui fournit des soins de santé et de diagnostic à distance. de plus, à l'aide des télécommunications, les données médicale incluant l'imagerie médicale et les informations du patient peuvent être facilement et rapidement partagées entre les hôpitaux et les services de soins de santé. En raison de la grande capacité de stockage et de la bande passante de transmission limitée, une technique de compression efficace est nécessaire. En tant que technique de compression d'image certifiée médicale, WAAVES fournit des taux de compression élevé, tout en assurant une qualité d'image exceptionnelle pour le diagnostic médical. Le défi consiste à transmettre à distance l'image médicale de l'appareil mobile au centre de soins de santé via un réseau à faible bande passante. Nos objectifs sont de proposer une solution de compression d'image intégrée à une vitesse de compression de 10 Mo/s, tout en maintenant la qualité de compression. Nous examinons d'abord l'algorithme WAAVES et évaluons sa complexité logicielle, basée sur un profilage précis du logiciel qui indique un complexité de l'algorithme WAAVES très élevée et très difficile à optimiser de contraintes très sévères en terme de surface, de temps d'exécution ou de consommation d'énergie. L'un des principaux défis est que les modules Adaptative Scanning et Hierarchical Enumerative Coding de WAAVES prennent plus de 90% du temps d'exécution. Par conséquent, nous avons exploité plusieurs possibilités d'optimisation de l'algorithme WAAVES pour simplifier sa mise en œuvre matérielle. Nous avons proposé des méthodologies de mise en œuvre possible de WAAVES, en premier lieu une mise en œuvre logiciel sur plateforme DSP. En suite, nous avons réalisé notre implémentation matérielle de WAAVES. Comme les FPGAs sont largement utilisés pour le prototypage ou la mise en œuvre de systèmes sur puce pour les applications de traitement du signal, leur capacités de parallélisme massif et la mémoire sur puce abondante permet une mise en œuvre efficace qui est souvent supérieure aux CPUs et DSPs. Nous avons conçu WAAVES Encoder SoC basé sur un FPGA de Stratix IV de chez Altera, les deux grands blocs coûteux en temps: Adaptative Scanning et Hierarchical Enumerative Coding sont implementés comme des accélérateurs matériels. Nous avons réalisé ces accélérateurs avec deux niveaux d'optimisations différents et les avons intégrés dans notre Encodeur SoC. La mise en œuvre du matérielle fonctionnant à 100MHz fournit des accélérations significatives par rapport aux implémentations logicielles, y compris les implémentations sur ARM Cortex A9, DSP et CPU et peut atteindre une vitesse de codage de 10 Mo/s, ce qui répond bien aux objectifs de notre thèse
In the field of healthcare, developments in medical imaging are progressing very fast. New technologies have been widely used for the support of patient medical diagnosis and treatment. The mobile healthcare becomes an emerging trend, which provides remote healthcare and diagnostics. By using telecommunication networks and information technology, the medical records including medical imaging and patient's information can be easily and rapidly shared between hospitals and healthcare services. Due to the large storage size and limited transmission bandwidth, an efficient compression technique is necessary. As a medical certificate image compression technique, WAAVES provides high compression ratio while ensuring outstanding image quality for medical diagnosis. The challenge is to remotely transmit the medical image through the mobile device to the healthcare center over a low bandwidth network. Our goal is to propose a high-speed embedded image compression solution, which can provide a compression speed of 10MB/s while maintaining the equivalent compression quality as its software version. We first analyzed the WAAVES encoding algorithm and evaluated its software complexity, based on a precise software profiling, we revealed that the complex algorithm in WAAVES makes it difficult to be optimized for certain implementations under very hard constrains, including area, timing and power consumption. One of the key challenges is that the Adaptive Scanning block and Hierarchical Enumerative Coding block in WAAVES take more than 90% of the total execution time. Therefore, we exploited several potentialities of optimizations of the WAAVES algorithm to simplify the hardware implementation. We proposed the methodologies of the possible implementations of WAAVES, which started from the evaluation of software implementation on DSP platforms, following this evaluation we carried out our hardware implementation of WAAVES. Since FPGAs are widely used as prototyping or actual SoC implementation for signal processing applications, their massive parallelism and abundant on-chip memory allow efficient implementation that often rivals CPUs and DSPs. We designed our WAAVES Encoder SoC based on an Altera's Stratix IV FPGA, the two major time consuming blocks: Adaptive Scanning and Hierarchical Enumerative Coding are designed as IP accelerators. We realized the IPs with two different optimization levels and integrated them into our Encoder SoC. The Hardware implementation running at 100MHz provides significant speedup compared to the other software implementation including ARM Cortex A9, DSP and CPU and can achieve a coding speed of 10MB/s that fulfills the goals of our thesis
APA, Harvard, Vancouver, ISO, and other styles
23

Pérez, Patricio Madain. "Stéréovision dense par traitement adaptatif temps réel : algorithmes et implantation." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/0c4f5769-6f43-455c-849d-c34cc32f7181.

Full text
Abstract:
Les méthodes de stéréovision sont utilisées pour la reconstruction tridimensionnelle d'une scène. Le travail présenté dans ce mémoire concerne l'étude et le développement de méthodes de stéréovision pouvant être implantées sur des architectures spécialisées de calcul afin de traiter les images en temps-réel. Nous avons étudié plus spécifiquement les méthodes basées sur la corrélation entre des fenêtres extraites des deux images. Le principal problème posé par ces méthodes réside dans le choix de la taille et de la forme de la fenêtre de corrélation. Une petite fenêtre est nécessaire afin de traiter correctement les petits objets, mais elle ne fournit pas de résultats exploitables dans les zones homogènes des images. A l'inverse, une grande fenêtre permet de traiter les zones homogènes, mais les petits objets sont supprimés des images résultat. Pour pallier ce problème, nous proposons une nouvelle méthode adaptative qui peut être implantée sur une architecture dédiée de calcul. La corrélation est calculée sur une grande fenêtre, mais certains pixels sont exclus lors du traitement. Seuls les pixels "semblables" au pixel à apparier sont conservés dans l'expression de la corrélation, ce qui équivaut à changer la taille et la forme de la fenêtre. Plusieurs critères de similarité sont proposés et comparés. Nous avons montré que, même en utilisant de critères de similarité extrèmement simples, les résultats obtenus avec notre algorithme sont de meilleure qualité que ceux obtenus par les algorithmes similaires décrits dans la littérature. L'algorithme a été implanté dans une architecture intégrant un FPGA, le processeur STREAM. Nous présentons également une utilisation de notre algorithme dans le cadre de la détection d'obstacles en temps-réel à l'avant d'un véhicule.
APA, Harvard, Vancouver, ISO, and other styles
24

Altarac, Sandrine. "Interférométrie des tavelures : optimisation des paramètres observationnels : application au contrôle en temps réel de l'instrument SPID." Lyon 1, 1999. http://www.theses.fr/1999LYO10056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Jacquemod, Gilles. "Detection de défauts dans des images radiographiques industrielles obtenues en temps reel par des détecteurs linéaires." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0089.

Full text
Abstract:
Parmi tous les systèmes de radiographie temps réel, on peut distinguer les trois principaux groupes suivants : -groupe 1 : écran fluorescent et caméra bas niveau de lumière, -groupe 2 : amplificateur de brillance et caméra classique de type Vidicon, -groupe 3 : détecteur linéaire à l'état solide sensible aux rayons X. La comparaison des divers systèmes a été faite sur échantillon étalon comportant des défauts calibrés en forme et en dimension, dans les conditions rencontrées dans la détection des amas inclusionnaires dans les tôles laminées. Elle a montré que le groupe 1 était inadapté, mais que les systèmes des groupes 2 et 3, sans atteindre la résolution obtenue par le film, présentaient des performances très intéressantes. Nous avons particulièrement étudié les détecteurs linéaires, adaptés à la détection au défilement de défauts de forme allongée. Des algorithmes simples ont pour ce cas été développés en vue d'améliorer la résolution de ce type de détecteurs et d'assurer la détection automatique des défauts. Ils permettent d'envisager une application temps réel sur des architectures construites autour du bus VME avec des cartes spécialisées dans le traitement d'image à vitesse vidéo. Par ailleurs, l'intégration électronique de la méthode de super résolution, appliquée aux détecteurs linéaires. A fait l'objet d'un dépôt de brevet. De plus, nous avons étudié son extension aux détecteurs bidimensionnels (caméras CCD) et à la tomographie industrielle.
APA, Harvard, Vancouver, ISO, and other styles
26

Kaufmann, Benoit. "Spécification et conception d'un système auto-stéréoscopique multi-vues pour l'affichage tri-dimensionnel." Marne-la-Vallée, 2006. http://www.theses.fr/2006MARN0319.

Full text
Abstract:
Les images 3D sont actuellement en plein essor dans de nombreux domaines aussi variés que la médecine, les simulations physiques, la réalité virtuelle ou les jeux vidéos, mais également dans des domaines où les images de synthèse n'ont, à priori, pas une grande place, comme l'architecture, l'aménagement urbain ou la biologie moléculaire. Dans ces domaines, le fait de pouvoir afficher des images en relief permet de mieux appréhender le résultat affiché et d'en avoir une vision plus complète. Il existe actuellement de nombreux systèmes permettant de percevoir des images en relief. Chacun a ses avantages et ses inconvénients. En particulier, beaucoup nécessitent de porter des dispositifs optiques (des lunettes, par exemple) pour percevoir l'image en relief. D'autres limitent la position de l'observateur à une certaine distance, ou nécessitent à l'observateur d'être détecté par le dispositif, ce qui limite le nombre d'observateurs possibles. Nous avons apporté, au cours de cette thèse, des améliorations à un type particulier de ces systèmes : les systèmes d'affichage auto-stéréoscopique, permettant de cumuler les avantages pour l'observateur de tous les systèmes existants, sans en avoir les inconvénients. Cette thèse présente donc le principe de ce système et en discute les avantages et inconvénients par rapport aux différents dispositifs d'affichage 3D existants. Elle propose également une solution aux différents problèmes posés par ce principe, liés au nombre important de vues différentes à calculer : le temps nécessaire à calculer toutes ces vues, la taille mémoire nécessaire à les mémoriser avant affichage et le débit nécessaire pour les envoyer au dispositif d'affichage en moins d'un trentième de seconde, vitesse nécessaire à un affichage temps-réel. Cette solution consiste en un algorithme permettant de générer toutes les vues nécessaires à l'affichage en projetant les objets à afficher une seule fois et pas une fois pour chacune des vues. Les données étant générées sous forme de données 3D, les redondances présentes dans des vues différentes sont évitées, ce qui diminue la taille des données à mémoriser et, par conséquent le débit nécessaire pour les envoyer au dispositif d'affichage. Ces données peuvent ensuite être décodées très rapidement, afin de permettre un affichage de toutes les différentes vues suffisamment rapidement pour être affichées. De plus, cet algorithme est un algorithme de compression des images 3D sans perte, permettant de générer les vues avec la même qualité que si elles avaient été générées individuellement. Enfin, cette thèse étudie la faisabilité technique d'un tel dispositif, en particulier en décrivant et en discutant l'implémentation de la partie codage de cet algorithme sur une architecture spécialisée à base de GPU. Cette architecture spécialisée se présente en deux parties : la première partie, formée par le GPU, traite les données 3D des objets à afficher (coordonnées, texture, éclairage. . . ) et génère les voxels à afficher, puis les rassemble en blocs de voxels contigus, placés horizontalement et à la même distance de l'écran. La deuxième partie récupère ces blocs, les trie et termine la mise en forme des données avant de les envoyer au dispositif d'affichage
There are actually many 3D display systems. Each of them has its advantages and disadvantages. For example, many of them need the observers to wear special glasses or limit the observation positions to a certain distance. We improved one of these display systems types: autostereoscopic displays, which holds concurrently all the existing systems' advantages for the observer, without having the disadvantages. This thesis presents the principle of this new system and discusses about its advantages and disadvantages compared to the existing 3D display systems. It also proposes a solution to different problems arising from this principle, related to the significant number of views to be computed: computing time to generate these views and memory size needed to store them before displaying. It consists in a lossless 3D compression algorithm and its real-time implementation on a GPU
APA, Harvard, Vancouver, ISO, and other styles
27

Falcou, Joël. "Un cluster pour la vision temps réel : architecture, outils et application." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00717444.

Full text
Abstract:
Cette thèse propose une solution logicielle au problème du développement et de l'exécution en temps réel d'applications de vision sur des machines de type cluster. Pour cela, avons développé deux bibliothèques utilisant des techniques d'évaluation partielle et de méta-programmation template qui permettent de programmer ces machines en s'attachant à rendre accessible les modèles de programmation parallèles à des développeurs issus de la communauté Vision pour qui ces problématiques ne sont pas triviales, tout en conservant des performances élevées. Ces deux bibliothèques : EVE, qui prend en charge la gestion du parallélisme SIMD, et QUAF, qui propose un modèle de programmation à base de squelettes algorithmiques pour la programmation sur machines MIMD, ont été validées par deux applications de vision de complexité réaliste, une reconstruction 3D et un suivi de piéton par filtrage particulaire, développées et exécutées sur un cluster dédié à la vision artificielle
APA, Harvard, Vancouver, ISO, and other styles
28

Bachmann, Etienne. "Imagerie ultrasonore 2D et 3D sur GPU : application au temps réel et à l'inversion de forme d'onde complète." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30133/document.

Full text
Abstract:
Si les avancées majeures en imagerie ultrasonore ont longtemps été liées à la qualité de l'instrumentation, l'avènement de l'informatique a incontestablement changé la donne en introduisant des possibilités croissantes de traitement des données pour obtenir une meilleure image. Par ailleurs, les GPUs, composants principaux des cartes graphiques, offrent de par leur architecture des vitesses de calcul bien supérieures aux processeurs, y compris à des fins de calcul scientifique. Le but de cette thèse a été de tirer parti de ce nouvel outil de calcul, en ciblant deux applications complémentaires. La première est d'autoriser une imagerie en temps réel de meilleure qualité que les autres techniques d'imagerie échographique, en parallélisant le procédé d'imagerie FTIM (Fast Topological IMaging). La seconde est d'introduire l'imagerie quantitative et en particulier la reconstruction de la carte de vitesse du milieu inconnu, en utilisant l'inversion de la forme d'onde complète
If the most important progresses in ultrasound imaging have been closely linked to the instrumentation's quality, the advent of computing science revolutionized this discipline by introducing growing possibilities in data processing to obtain a better picture. In addition, GPUs, which are the main components of the graphics cards deliver thanks to their architecture a significantly higher processing speed compared with processors, and also for scientific calculation purpose. The goal of this work is to take the best benefit of this new computing tool, by aiming two complementary applications. The first one is to enable real-time imaging with a better quality than other sonographic imaging techniques, thanks to the parallelization of the FTIM (Fast Tpological IMaging) imaging process. The second one is to introduce quantitative imaging and more particularly reconstructing the wavespeed map of an unknown medium, using Full Waveform Inversion
APA, Harvard, Vancouver, ISO, and other styles
29

Guennebaud, Gaël. "Algorithmes pour le rendu temps-réel de haute qualité des géométries basées points." Toulouse 3, 2005. http://www.theses.fr/2005TOU30226.

Full text
Abstract:
Dans le cadre de la synthèse d'image temps-réel, cette thèse explore l'utilisation des points comme primitive de base pour le rendu. Pour cela nous proposons un pipe-line de rendu des géométries basées points complet ayant la particularité de maintenir une très haute qualité de la visualisation que ce soit en cas de fort sur-échantillonnage, ou au contraire en cas de fort sous-échantillonnage. Nous proposons à la fois une implantation efficace sur GPU de l'algorithme de splatting ainsi qu'une méthode appelée deferred splatting dont le principe est de retarder au maximum les opérations de filtrage afin de ne réaliser celles-ci que sur les points réellement visibles. Finalement, d'une manière similaire aux surfaces de subdivisions pour les maillages polygonaux, nous proposons un algorithme complet de raffinement itératif capable de reconstruire dynamiquement une surface lisse à partir d'un nuage de points irrégulier et/ou sous-échantillonné
In the context of real-time image synthesis, this thesis investigate the use of points as a display primitve. We propose a complete rendering pipeline of point-based geometries which has the particularity to maintain a very high rendering quality both in case of under-sampled or over-sampled models while maintaining real-time performances. To reach these goals, we present both an adaptation of the surface splatting algorithm to modern graphics cards, and a new technique called deferred splatting which defers filtering operations in order to perform them on visible points only. Finally, in similar fashion to subdivision surfaces for polygonal meshes, we proposed an interpolatory refinement framework allowing to dynamically reconstruct a smooth surface from a scattered and/or under-sampled point based model
APA, Harvard, Vancouver, ISO, and other styles
30

Deschênes, Jean-Daniel. "Modélisation interactive : amélioration du processus de reconstruction d'un modèle 3D par la compression temps réel." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25372/25372.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Engels, Laurent. "Acquisition en temps réel, identification et mise en correspondance de données 3D." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209852.

Full text
Abstract:
Cette thèse décrit le développement et la mise en œuvre d'un système d'acquisition 3D ayant pour but la localisation temps réel en 3D et l'identification d'électrodes et des antennes utilisées lors d'un examen MEG/EEG. La seconde partie concerne la mise en correspondance de ces données avec les informations de la résonance magnétique.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
32

Roncali, Emilie Liliane Catherine. "Développements en imagerie de luminescence in vivo chez le petit animal : système d'acquisition sur animal vigile et tomographie en temps réel." Châtenay-Malabry, Ecole centrale de Paris, 2008. http://www.theses.fr/2008ECAP1071.

Full text
Abstract:
L’imagerie du petit animal occupe une place croissante dans les études précliniques. Parmi les approches d’imagerie moléculaire innovantes, les méthodes photoniques qui permettent une détection externe de lumière visible ou proche infrarouge sont principalement représentées par l’imagerie de bioluminescence et l’imagerie de fluorescence. Ces techniques récentes restent encore en développement et les applications ne sont pas encore toutes exploitées. Ce travail de thèse s’articule autour de deux projets de recherche visant à répondre à ces problématiques. Un premier projet a consisté à exploiter les possibilités d’acquisition en temps réel de l’imagerie de luminescence. Actuellement la majorité des systèmes fonctionnent avec des résolutions temporelles supérieures à la seconde. Nous avons réalisé un dispositif dédié à l’imagerie de bioluminescence chez l’animal vigile, qui combine un suivi visuel de l’animal et un système de comptage de photons pour détecter les signaux de luminescence. Cet instrument permet de s’affranchir de l’anesthésie et ainsi d’opérer dans des conditions physiologiques proches du fonctionnement normal de l’organisme. Le deuxième projet a pour but de pallier le défaut de quantification de l’imagerie planaire de luminescence, qui motive les nombreux travaux autour de systèmes d’imagerie tomographiques. Nous avons conçu et mis en oeuvre un système avec un miroir conique permettant d’acquérir une image anamorphique qui collecte toute l’information lumineuse provenant du sujet. Ce montage présente l’avantage d’être compatible avec des acquisitions en temps réel, contrairement à la plupart des instruments actuels
Small animal imaging is a powerful tool largely used in preclinical studies. Luminescence-based techniques allow an external detection of light from visible or infrared spectrum and constitute a rapidly expanding field. These innovative techniques are still under development and the field of applications could be extended. This work consists in two projects that were conducted in order to bring about some solutions to these issues. A first development was based on the real time capacity of luminescence imaging. Because of their sensitivity, cooled CCD cameras are largely used to detect the very small amount of light produced by bioluminescence reactions or by fluorescence probes. However, these systems generally require an exposure time of several seconds to overcome the readout noise. We report here the development and the validation of a photon counting-based system combined with a video monitoring function. The biological signal of interest, recorded by a third generation cooled intensified CCD camera, is spatially and temporally registered with the tracking video. Performing molecular imaging studies without the use of anaesthetics and in freely moving animals would limit the interference with signalization processes. Another aspect of luminescence imaging improvements was investigated in this thesis. A major limitation of this technique is the lack of quantification in planar imaging. Most of current systems are not compatible with real time imaging because of their acquisition process. We designed and realized an innovative device based on the use of a conical mirror enclosing the sample and thus allowing to record an anamorphic image of the sample
APA, Harvard, Vancouver, ISO, and other styles
33

Cotin, Stéphane. "Modèles anatomiques déformables en temps réel : application à la simulation de chirurgie avec retour d'effort." Phd thesis, Université de Nice Sophia-Antipolis, 1997. http://tel.archives-ouvertes.fr/tel-00630956.

Full text
Abstract:
Dans cette thèse, nous présentons différentes approches pour le calcul, en temps-réel, de la déformation de modèles anatomiques volumiques. Une des applications principales de ce type de modèles concerne la simulation de chirurgie laparoscopique. Cette technique chirurgicale récente, et en permanente évolution, nécessite une formation accrue. Dans ce cadre, l'utilisation d'un simulateur présente de multiples avantages : polyvalence, fréquences d'entraînement élevées, outils d'évaluation, simulation de cas pathologiques rares, etc. La première partie de cette thèse concerne la modélisation du comportement déformable des tissus mous, en prenant en compte les aspects biomécaniques ainsi que les contraintes de temps de calcul. Le premier modèle que nous proposons est basé sur une modélisation par éléments finis d'un solide élastique linéaire. Le calcul, en temps-réel, de la déformation repose sur des combinaisons linéaires de déformation élémentaires obtenues lors d'une étape de pré-calcul. Afin de prendre en compte, dans la déformation, d'éventuelles modifications topologiques du maillage - pouvant représenter, par exemple, l'incision de tissus mous - nous avons proposé un second modèle, appelé "masses/tenseurs". Enfin, nous proposons une formulation originale, appelée "modèle hybride", permettant de combiner, dans une même représentation, les deux modèles déformables précédents. Dans la seconde partie de cette thèse, nous nous intéressons aux problèmes liés à l'utilisation de systèmes à retour d'effort pour les interactions avec un modèle déformable. Nous proposons ainsi une architecture matérielle intégrant les différents modules assurant le calcul des déformations, des forces, le contrôle des systèmes à retour d'effort, la détection de collision, l'affichage graphique, etc. Un premier prototype du simulateur, réalisé sur la base de cette architecture et incluant deux systèmes à retour d'effort, a permis de valider l'ensemble des algorithmes. Finalement, nous proposons en annexe une étude relative à une nouvelle technique de reconstruction faciale. En utilisant différents outils d'analyse et de traitement d'images médicales, nous avons réalisé une série d'expériences visant à retrouver une approximation du visage d'une personne à partir de la seule donnée de son crâne et d'un ensemble réduit de paramètres.
APA, Harvard, Vancouver, ISO, and other styles
34

Johnson, Gyasi. "Conception et intégration d'algorithmes sur FPGA pour la réalisation d'un système de mesure 3D temps réel en microscopie interférométrique 4D." Université Louis Pasteur (Strasbourg) (1971-2008), 2008. http://www.theses.fr/2008STR13232.

Full text
Abstract:
Le développement de micro-système à grande échelle nécessite des moyens de test et de caractérisation rapides et performants. Ce travail de recherche consiste à proposer et à implémenter des algorithmes de caractérisation de surface dans un système de mesure temps réel dans lequel la prise en compte des contraintes temporelles est tout aussi importante que la qualité des résultats métrologiques. Dans ces travaux, nous nous sommes particulièrement intéressés au développement des techniques de mesures basées sur l’interférométrie en lumière blanche telles que la PFSM « Peak Fringe Scanning Microscopy » et la FSA « Five Sample Adaptative non linear Algorithm ». Dans une première étape, un environnement de simulation des algorithmes de démodulation utilisés en interférométrie (PFSM, FSA) a été développé au niveau fonctionnel sous MATLAB puis au niveau comportemental sous VHDL dans le but de les valider. Dans une seconde étape, ces deux algorithmes ont été implantés sur une carte d’acquisition et de traitement munie d’un FPGA. Une cadence 3D en ligne de 18 i/s a été obtenue sur une profondeur d’analyse de 7 µm avec une résolution axiale de 15 nm
The development of micro-systems in large scale production requires fast and successful means of test and characterization. This research work consists of proposing and implementing surface characterization algorithms in a real time measurement system in which the taking into account the time constraints is just as important as the quality of the metrological measurements. In this work, we are particularly interested in the development of techniques based on white light scanning interferometry such as PFSM "Peak Fringe Scanning Microscopy" and FSA "Five Sample non-linear Adaptive Algorithm". The aims of this work are twofold. Firstly we present the results of the modeling and simulation of two algorithms that correspond to our requirements, namely PFSM and FSA at a functional level under MATLAB and at a behavioral level under VHDL in order to validate them. Secondly we present some results of high speed image acquisition using post processing in order to demonstrate the potential of the technique, in which a 3D measurement rate of 18 i/s has been achieved for a depth of 7 μm, with an axial sensitivity of 15 nm
APA, Harvard, Vancouver, ISO, and other styles
35

Wibaux, Luc. "Une méthode de synthèse d'images échographiques : application à des simulateurs médicaux d'entraînement." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-502.pdf.

Full text
Abstract:
Les médecins souhaitent améliorer leur formation par l'utilisation de simulateur d'entraînement. Cette évolution est possible grâce a l'émergence de nouvelles techniques comme la synthèse d'image et le retour d'effort. Dans ce cadre, nous avons travaillé sur la synthèse d'images échographiques en temps-réel. D'autres équipes de recherche ont adopté une solution basée sur la construction d'une base de donnée d'images utilisée lors de la simulation. Cette solution pose un certain nombre de problèmes, comme le mauvais positionnement d'artefacts sur les images de la simulation. Nous avons pris comme objectif d'établir une méthode de synthèse d'images échographiques s'appuyant sur la physique. Pour cela nous avons adapté l'algorithme du lancer de rayon à notre problème et utilisé des textures solides. Ceci nous a permis de rendre les principales caractéristiques des images échographiques de façon réaliste. La méthode est indépendante du modèle choisi pour la géométrie des organes
Toutefois les performances d'affichage en dépendent, l'intersection entre les rayons et les objets représentant une partie importante des calculs. Une première maquette logicielle nous a permis de montrer la validité de notre méthode. Nous avons ensuite conçu un simulateur pour les amniocentèses. Pour ce simulateur, nous proposons une solution pour que la déformation des organes soit visible. Cette déformation utilise les résultats des calculs du modèle mécanique et la modélisation des organes au repos. Le prototype du simulateur a été présenté à deux conférences médicales. Les spécialistes sont convaincus de l'utilité d'un tel simulateur dans leur formation. Cette thèse décrit une méthode temps-réel de synthèse d'images échographiques qui a été validé sur un cas concret. Elle peut s'appliquer à tout autre simulateur
APA, Harvard, Vancouver, ISO, and other styles
36

Convert, Laurence. "Système microfluidique d'analyse sanguine en temps réel pour l'imagerie moléculaire chez le petit animal." Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6623.

Full text
Abstract:
De nouveaux radiotraceurs sont continuellement développés pour améliorer l'efficacité diagnostique en imagerie moléculaire, principalement en tomographie d'émission par positrons (TEP) et en tomographie d'émission monophotonique (TEM) dans les domaines de l'oncologie, de la cardiologie et de la neurologie. Avant de pouvoir être utilisés chez les humains, ces radiotraceurs doivent être caractérisés chez les petits animaux, principalement les rats et les souris. Pour cela, de nombreux échantillons sanguins doivent être prélevés et analysés (mesure de radioactivité, séparation de plasma, séparation d'espèces chimiques), ce qui représente un défi majeur chez les rongeurs à cause de leur très faible volume sanguin (-1,4 ml pour une souris). Des solutions fournissant une analyse partielle sont présentées dans la littérature, mais aucune ne permet d'effectuer toutes les opérations dans un même système. Les présents travaux de recherche s'insèrent dans le contexte global d'un projet visant à développer un système microfluidique d'analyse sanguine complète en temps réel pour la caractérisation des nouveaux radiotraceurs TEP et TEM. Un cahier des charges a tout d'abord été établi et a permis de fixer des critères quantitatifs et qualitatifs à respecter pour chacune des fonctions de la puce. La fonction de détection microfluidique a ensuite été développée. Un état de l'art des travaux ayant déjà combiné la microfluidique et la détection de radioactivité a permis de souligner qu'aucune solution existante ne répondait aux critères du projet. Parmi les différentes technologies disponibles, des microcanaux en résine KMPR fabriqués sur des détecteurs semiconducteurs de type p-i-n ont été identifiés comme une solution technologique pour le projet. Des détecteurs p-i-n ont ensuite été fabriqués en utilisant un procédé standard. Les performances encourageantes obtenues ont mené à initier un projet de maîtrise pour leur optimisation. En parallèle, les travaux ont été poursuivis avec des détecteurs du commerce sous forme de gaufres non découpées. Un premier dispositif intégrant des canaux en KMPR sur ces gaufres a permis de valider le concept démontrant le grand potentiel de ces choix technologiques et incitant à poursuivre les développements dans cette voie, notamment en envisageant des expériences animales. L'utilisation prolongée des canaux avec du sang non dilué est cependant particulièrement exigeante pour les matériaux artificiels. Une passivation à l'albumine a permis d'augmenter considérablement la compatibilité sanguine de la résine KMPR. Le concept initial, incluant la passivation des canaux, a ensuite été optimisé et intégré dans un système de mesure complet avec toute l'électronique et l'informatique de contrôle. Le système final a été validé chez le petit animal avec un radiotraceur connu. Ces travaux ont donné lieu à la première démonstration d'un détecteur microfluidique de haute efficacité pour la TEP et la TEM. Cette première brique d'un projet plus global est déjà un outil innovant en soi qui permettra d'augmenter l'efficacité du développement d'outils diagnostiques plus spécifiques principalement pour l'oncologie, la cardiologie et la neurologie.
APA, Harvard, Vancouver, ISO, and other styles
37

Njiki, Mickaël. "Architecture matérielle pour la reconstruction temps réel d'images par focalisation en tout point (FTP)." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112161.

Full text
Abstract:
Le contrôle non destructif (CND) a pour but de détecter et de caractériser d’éventuels défauts présents dans des pièces mécaniques. Les techniques ultrasonores actuelles utilisent des capteurs multiéléments associés à des chaînes d’instrumentations et d’acquisitions de données multi capteurs en parallèles. Compte tenu de la masse de données à traiter, l’analyse de ces dernières est généralement effectuée hors ligne. Des travaux en cours, au Commissariat à l’Energie Atomique (CEA), consistent à développer et évaluer différentes méthodes d’imageries avancées, basées sur la focalisation synthétique. Les algorithmes de calculs induits nécessitent d’importantes opérations itératives sur un grand volume de données, issues d’acquisition multiéléments. Ceci implique des temps de calculs important, imposant un traitement en différé. Les contraintes industrielles de caractérisation de pièces mécaniques in situ imposent de réaliser la reconstruction d’images lors de la mesure et en temps réel. Ceci implique d’embarquer dans l’appareil de mesure, toute l’architecture de calcul sur les données acquises des capteurs. Le travail de thèse a donc consisté à étudier une famille d’algorithmes de focalisation synthétique pour une implantation temps réel sur un instrument de mesure permettant de réaliser l’acquisition de données. Nous avons également étudié une architecture dédiée à la reconstruction d’images par la méthode de Focalisation en Tout Point (FTP). Ce travail a été réalisé dans le cadre d’une collaboration avec l’équipe ACCIS de l’institut d’Electronique Fondamentale, Université de Paris Sud. Pour ce faire, notre démarche s’est inspirée de la thématique de recherche d’Adéquation Algorithme Architecture (A3). Notre méthodologie, est basée sur une approche expérimentale consistant dans un premier temps en une décomposition de l’algorithme étudié en un ensemble de blocs fonctionnels (calculs/transferts). Cela nous a permis de réaliser l’extraction des blocs pertinents de calculs à paralléliser et qui ont une incidence majeure sur les temps de traitement. Nous avons orienté notre stratégie de développement vers une conception flot de donnée. Ce type de modélisation permet de favoriser les flux de données et de réduire les flux de contrôles au sein de l’architecture matérielle. Cette dernière repose sur une plateforme multi-FPGA. La conception et l’évaluation de telles architectures ne peuvent se faire sans la mise en place d’outils logiciels d’aide à la validation tout au long du processus de la conception à l’implantation. Ces outils faisant partie intégrante de notre méthodologie. Les modèles architecturaux des briques de calculs ont été validés au niveau fonctionnel puis expérimental, grâce à la chaîne d’outils développée. Cela inclus un environnement de simulation nous permettant de valider sur tables les briques partielles de calculs ainsi que le contrôle associé. Enfin, cela a nécessité la conception d’outils de génération automatique de vecteurs de tests, à partir de données de synthèses (issues de l’outil simulation CIVA développé par le CEA) et de données expérimentales (à partir de l’appareil d’acquisition de la société M2M-NDT). Enfin, l’architecture développée au cours de ce travail de thèse permet la reconstruction d’images d’une résolution de 128x128 pixels, à plus de 10 images/sec. Ceci est suffisant pour le diagnostic de pièces mécaniques en temps réel. L’augmentation du nombre d’éléments capteurs ultrasonores (128 éléments) permet des configurations topologiques plus évoluées (sous forme d’une matrice 2D), ouvrant ainsi des perspectives vers la reconstruction 3D (d’un volume d’une pièce). Ce travail s’est soldé par une mise en œuvre validée sur l’instrument de mesure développé par la société M2M-NDT
Non-destructive Evaluation (NDE) regroups a set of methods used to detect and characterize potential defects in mechanical parts. Current techniques uses ultrasonic phased array sensors associated with instrumentation channels and multi-sensor data acquisition in parallel. Given the amount of data to be processed, the analysis of the latter is usually done offline. Ongoing work at the French “Commissariat à l’Energie Atomique” (CEA), consist to develop and evaluate different methods of advanced imaging based on synthetic focusing. The Algorithms induced require extensive iterative operations on a large volume of data from phased array acquisition. This involves important time for calculations and implies offline processing. However, the industrial constraint requires performing image reconstruction in real time. This involves the implementation in the measuring device, the entire computing architecture on acquired sensor data. The thesis has been to study a synthetic focusing algorithm for a real-time implementation in a measuring instrument used to perform ultrasonic data acquisition. We especially studied an image reconstruction algorithm called Total Focusing Method (TFM). This work was conducted as part of collaboration with the French Institute of Fundamental Electronics Institute team of the University of Paris Sud. To do this, our approach is inspired by research theme called Algorithm Architecture Adequation (A3). Our methodology is based on an experimental approach in the first instance by a decomposition of the studied algorithm as a set of functional blocks. This allowed us to perform the extraction of the relevant blocks to parallelize computations that have a major impact on the processing time. We focused our development strategy to design a stream of data. This type of modeling can facilitate the flow of data and reduce the flow of control within the hardware architecture. This is based on a multi- FPGA platform. The design and evaluation of such architectures cannot be done without the introduction of software tools to aid in the validation throughout the process from design to implementation. These tools are an integral part of our methodology. Architectural models bricks calculations were validated functional and experimental level, thanks to the tool chain developed. This includes a simulation environment allows us to validate partial calculation blocks and the control associated. Finally, it required the design of tools for automatic generation of test vectors, from data summaries (from CIVA simulation tool developed by CEA) and experimental data (from the device to acquisition of M2M –NDT society). Finally, the architecture developed in this work allows the reconstruction of images with a resolution of 128x128 pixels at more than 10 frames / sec. This is sufficient for the diagnosis of mechanical parts in real time. The increase of ultrasonic sensor elements (128 elements) allows more advanced topological configurations (as a 2D matrix) and providing opportunities to 3D reconstruction (volume of a room). This work has resulted in implementation of validated measurement instrument developed by M2M -NDT
APA, Harvard, Vancouver, ISO, and other styles
38

Oster, Julien. "Traitement en temps réel des signaux électrophysiologiques acquis dans un environnement d'imagerie par résonance magnétique." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10117/document.

Full text
Abstract:
L'acquisition de l'électrocardiogramme (ECG) est recommandée lors d'examens d'Imagerie par Résonance Magnétique (IRM) pour le monitorage des patients et la synchronisation de l'acquisition IRM avec l'activité cardiaque. L'environnement IRM, de par ses trois composantes physiques caractéristiques, perturbe les signaux ECG. Les gradients de champ magnétique compliquent notamment grandement l'analyse de l'ECG de manière non conventionnelle. Le développement de traitements spécifiques est donc nécessaire, les méthodes existantes de détection QRS et de débruitage ne répondant pas de manière satisfaisante à ce problème. Une base de données ECG en IRM a été réalisée, afin de permettre le développement de nouvelles méthodes et leur évaluation selon deux critères : la qualité de détection des battements cardiaques et une estimation du rapport signal sur bruit spécifique à ces enregistrements. Un détecteur QRS capable de traiter ces signaux fortement bruités a été proposé. Cette technique est basée sur la détection et la caractérisation des singularités à partir des lignes de maxima d'ondelettes. Ce détecteur apporte une information sur le rythme cardiaque, primordiale pour la mise en place de nouvelles approches statistiques. Une méthode de débruitage basée sur l'analyse en composantes indépendantes a été présentée. Celle-ci utilise uniquement les signaux ECG. Une approche bayésienne de débruitage, reposant sur une unification de deux modèles (d'ECG et des artefacts de gradient), a été proposée. Enfin, l'approche bayésienne a également été suggérée pour prédire le rythme cardiaque, afin d'améliorer la stratégie de synchronisation
Electrocardiogram (ECG) is required during Magnetic Resonance Imaging (MRI), for patient monitoring and for the synchronization of MRI acquisitions and heart activity. The MRI environment, due to its three characteristic physic components, highly disturbs ECG signals. For instance, the magnetic field gradients strongly complicate the ECG analysis in a non conventional manner. The development of specific signal processing tools is thus required. Existing methods, whether QRS detector or denoising techniques, do not accurately process these signals. A database of ECG acquired in MRI has been built, enabling the development of new processing techniques and their evaluation by using the folllowing two criteria : the cardiac beat detection quality and the signal to noise ratio estimated specifically on these particular recordings. A QRS detector, processing the noisy ECG signals, has been proposed. This technique is based on the singularity detection and characterisation provided by the wavelet modulus maximum lines. This detector provides helpful information on cardiac rhythm, for the development of novel techniques with a statistical approach. A new denoising method based on independent component analysis has been presented. This technique takes only advantage of the ECG signals. Two Bayesian based denoising methods, unifying two models (of ECG and gradient artifacts) in one state-space formulation have been proposed. Bayesian filtering has also been suggested for cardiac rhythm prediction, in order to improve the synchronization strategy
APA, Harvard, Vancouver, ISO, and other styles
39

Ledoux, Louis-Philippe. "Fiberweb : visualisation et interaction dans le web en imagerie par résonance magnétique de diffusion." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10149.

Full text
Abstract:
Ce mémoire présente une nouvelle application web permettant de visualiser et d'interagir avec des données d'imagerie médicale provenant principalement de l'imagerie par résonance magnétique de diffusion, une technique non-invasive permettant d'explorer la matière blanche du cerveau. Dans le premier chapitre, un historique de la diffusion, l'explication de divers concept importants du domaine ainsi qu'un survol des méthodes de visualisation seront présentés. Le deuxième chapitre présentera le web, et plus précisément la technologie qui a rendu possible l'existence du Fiberweb : WebGL. Des choix de design du Fiberweb seront également abordés. Le troisième chapitre est la contribution principale de ce mémoire. Il consiste en un article présentant le Fiberweb, ses fonctionnalités et également une nouvelle technique de tractographie en temps réel probabiliste. Finalement, les diverses problématiques non-résolues liées à notre application, ses utilisations potentielles et ses perspectives futures seront discutées.
APA, Harvard, Vancouver, ISO, and other styles
40

Monnier, Nicolas. "Amélioration du traitement amont de pixels térahertz, monolithiquement intégrés en technologie CMOS, pour des systèmes d'imagerie en temps réel." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0070/document.

Full text
Abstract:
Cette thèse s’inscrit dans le développement d’imageurs térahertz en technologie intégrée CMOS avec pour volonté de rendre ces derniers fiables et robustes, de permettre de réaliser de l’imagerie en temps réel, à température ambiante et à bas coût de production. L’ensemble doit être mené en parallèle de l’amélioration des réponses et sensibilités des capteurs actuels dans le but de rendre l’imageur fonctionnel et industrialisable. La caractérisation d’un imageur THz précédent réalisée au cours de la thèse a permis de redéfinir avec plus de rigueur cette caractérisation ainsi qu’une méthodologie de conception de la partie amont du pixel térahertz. Cette partie amont inclut l’antenne réceptrice et son environnement électromagnétique ainsi qu’un transistor à effet de champ redressant le signal THz reçu. Différentes parties amont de pixels THz, sensibles autour de 300 GHz, ont été développées. L’ensemble est monolithiquement intégré à l’aide du procédé CMOS standard dans un circuit complet et l’antenne est co-conçue avec le MOSFET de redressement afin de réaliser l’adaptation d’impédance. Chaque pixel inclut une antenne intégrée au niveau métallique supérieur avec un plan de masse parfois couplé à une métasurface afin d’isoler cette antenne du circuit de traitements du signal (non traité dans cette thèse) et du substrat de silicium localisés aux niveaux inférieurs du circuit. Finalement, 17 cas de test croisés (16 de 3 x 3 pixels et une matrice de 9 x 9 pixels) intégrant différentes topologies d'antenne et configurations de surfaces électromagnétiques (plan de masse et métasuface) ainsi que différents transistors de redressement sont conçus et fabriqués en fonderie CMOS
This thesis deals with the development of terahertz imager in CMOS technology with the objectives to make it robust and reliable, with real-time imaging capacity at ambient temperature and with low-cost production. These objectives has to be developed at the same time as the improvement of responses and sensibilities to get the imager functional and ready for industrialization. The characterization of a previous THz imager, done during this thesis, brought the possibility to redefine in a more rigorous way this characterization and to develop a methodology for designing the THz front-end pixel. This front-end includes the reception antenna and its electromagnetic environment and a field effect transistor (FET) rectifying the received THz signal. Various front-end of THz pixels, design for 300 GHz reception, were developed. The whole structure has to be monolithically integrated with the standard CMOS process in a complete circuit and the antenna is co-design with the rectifying MOSFET in order to satisfy the impedance matching. Every pixel includes an antenna, integrated in higher metal levels with a ground plan sometimes coupled with a metasurface. This is in order to isolate the antenna from the signal processing circuit (not investigated in this thesis) and the silicon substrate botth located at the lower levels of the circuit. Finally, 17 crossed test cases (16 of 3 x 3 pixels and one matrix of 9 x 9 pixels) which integrate various antenna topologies and various configurations of electromagnetic surfaces (ground plane and metasurface) with various rectifying transistor were designed and manufactured in CMOS foundry
APA, Harvard, Vancouver, ISO, and other styles
41

Chamberland, Maxime. "Visualisation en imagerie par résonance magnétique de diffusion : tractographie en temps réel des fibres de la matière blanche du cerveau." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6573.

Full text
Abstract:
L'imagerie par résonance magnétique de diffusion est une technique non-invasive permettant de mesurer la diffusion des molécules d'eau selon plusieurs directions. Le résultat d'une telle acquisition contient de l'information implicite sur les structures microbiologiques qui composent le cerveau humain. La tractographie consiste à déterminer et visualiser, en trois dimensions, l'ensemble des connections neuronales de la matière blanche du cerveau en suivant la diffusion préférentielle de l'eau présente en chaque voxel. Les fibres de la matière blanche sont responsables de connecter les différentes aires fonctionnelles du cerveau entre-elles. En présence d'une tumeur, elles peuvent se réorganiser de multiples façons et refaire des connections pour assurer le suivi des fonctions importantes. L'imagerie du câblage cérébral est utilisée lors d'interventions neurochirurgicales afin d'aider le neurochirurgien à planifier son angle d'attaque pour réséquer le maximum de la tumeur sans léser la fonction du patient. La tractographie prend donc tout son sens pour le neurochirurgien avant et pendant l'opération. Dans ce mémoire, il sera question de tractographie en temps réel. La plupart des algorithmes de tractographie utilisent des paramètres fixes et prédéfinis pour l'ensemble du cerveau. Nous croyons que ces paramètres devraient être accessibles et modifiables afin de voir l'impact que ceux-ci ont sur la reconstruction des connections cérébrales. Nous proposons une méthode de visualisation de fibres en temps réel, permettant de calculer et d'afficher instantanément le résultat d'un nouvel algorithme de tractographie qui sera confronté aux méthodes existantes. Le nouveau module permet d'effectuer la tractographie des fibres de la matière blanche de manière interactive en offrant la possibilité d'ajuster les paramètres impliqués dans le processus de tractographie. Il a notamment été introduit plus d'une vingtaine de fois lors d'interventions neurochirurgicales au Centre Hospitalier Universitaire de Sherbrooke, grâce à la supervision du Dr. David Fortin. La tractographie en temps réel a changé la manière dont les données sont préparées en vue d'une intervention en bloc opératoire. Dans un contexte où le temps entre le traitement des données et l'intervention chirurgicale est une contrainte majeure, l'élimination de l'étape de tractographie du processus de prétraitement est un avantage non-négligeable.
APA, Harvard, Vancouver, ISO, and other styles
42

Bonny, Jean-Marie. "Imagerie par resonance magnetique nucleaire quantitative en antenne de surface : correction des heterogeneites et applications." Clermont-Ferrand 1, 1996. http://www.theses.fr/1996CLF1MM01.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Tandjaoui, Amina. "Solidification dirigée du silicium multi-cristallin pour les applications photovoltaïques : caractérisation in situ et en temps réel par imagerie X synchrotron." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4319/document.

Full text
Abstract:
Nous avons étudié in situ et en temps réel la structure de grains du silicium multi-cristallin issue de la solidification dirigée en utilisant l’imagerie X synchrotron. La radiographie X permet de suivre l’évolution de l’interface solide/liquide et de caractériser sa dynamique et sa morphologie. La topographie X nous donne des informations sur la structure de grains formée, les contraintes et les défauts issus de la solidification. Nous avons montré l’importance la préparation de l’état initial de la solidification en particulier pour les expériences de reprise sur germe. L’analyse de la morphologie de l’interface solide/liquide nous a permis de caractériser la surfusion cinétique du front de solidification, de comprendre l’évolution des sillons de joints de grains et d’analyser les mécanismes de compétition de grains ainsi que de révéler l’impact des impuretés sur la structure de grains formée à l’issue de la solidification. Le phénomène de maclage a aussi été observé dans nos expériences et nous avons démontré que les macles dans le silicium multi-cristallin peuvent être des macles de croissance. Deux types de macles ont été identifiés et le phénomène de compétition de grains en présence de macles étudié
We studied in situ and real-time the grain structure of multi-crystalline silicon from directional solidification using synchrotron X-ray imaging techniques. X-ray Radiography gives information on the evolution, dynamics and morphology of the solid/liquid interface. X- ray Topography gives more information on the grain structure, strains and defects that occur during solidification step. We showed the importance of the preparation of the initial stage of solidification in particular in the experiments where solidification is initiated from seed. The analysis of the solid/liquid interface morphology allowed us to characterize the kinetic undercooling of the solidification front, to understand the evolution of the grains boundary grooves and to analyze the mechanisms of grain competition and also to reveal the impurities impact on the grain structure formed at the end of the solidification. We also observed twinning phenomenon in our experiments and we demonstrated that twins in multi-crystalline silicon can be growth twins. Two kinds of silicon twins have been identified and the grain competition phenomenon with twins studied
APA, Harvard, Vancouver, ISO, and other styles
44

Lelong, Lionel. "Architecture SoC-FPGA pour la mesure temps réel par traitement d'images. Conception d'un système embarqué : imageur CMOS et circuit logique programmable." Saint-Etienne, 2005. http://www.theses.fr/2005STET4008.

Full text
Abstract:
La méthode de mesures par PIV (Particle Image Velocimetry) est une technique pour mesurer un champ de vitesse de manière non intrusive et multipoints. Cette technique utilise l'algorithme de corrélation entre deux images consécutives pour déterminer les vecteurs vitesse. La quantité de calcul requis par cette méthode limite son usage à des traitements en temps différé sur ordinateur. Les performances des ordinateurs demeurent insuffisantes pour ce type d'applications sous contrainte temps réel sur des cadences de données élevés. Au vu de ces besoins, la définition et la conception d'architectures dédiées semblent être une solution adéquate pour atteindre le temps réel. L'évolution des niveaux d'intégration permet le développement des structures dédiées au traitement d'images en temps réel à bas prix. Dans ce travail de thèse, nous nous sommes intéressés à la conception d'une architecture de type SoC (System on-Chip) dédiée aux mesures de paramètres physiques par traitement d'images en temps réel. C'est une architecture hiérarchique et modulaire dédiée à des applications de type flot de données d'entrée dominant. Cette description hiérarchique permet la modification du nombre et/ou de la nature de ces éléments sans modifier profondément l'architecture. Pour le calcul d'une mesure, il faut 267 µs avec un FPGA à 50 MHz. Pour estimer les performances du système, un imageur CMOS a été connecté directement au FPGA. Les avantages de ce prototype sont de réduire au minimum le mouvement de grands ensembles de données ainsi que la latence en commençant à traiter des données avant leur complète acquisition
The measurements method by PIV (Particle Image Velocimetry) is a technique to measure a motion vector field in a non-intrusive way and multi points. This technique uses the cross-correlation algorithm between two images to estimate the motion. The computation quantity required by this method limits its use to off-line processing with computer. The computers performances remain insufficient for this type of applications under constraint real time on high data rates. Within sight of these specific needs, the definition and the design of dedicated architectures seem to be an adequate solution to reach significant performances. The evolution of the integration levels allows the development of structures dedicated to image processing in real time at low prices. We propose a hardware implementation of cross-correlation algorithm adapted to internal architecture of FPGA with an aim of obtaining the real time PIV. In this thesis, we were interested in the architecture design of System on-a-Chip dedicated to physical measurements of parameters by real time image processing. This is a hierarchical and modular architecture dedicated to applications of “Dominant input data flow”. This hierarchical description allows a modification of number and/or nature of elements without architecture modifications. For one measurement computation, it needs 267 µs with a FPGA at the frequency of 50 MHz. To estimate the system performances, a CMOS image sensor was connected directly to the FPGA. That makes it possible to carry out a compact, dedicated and easily reuse system. An architecture made up of 5 computation modules allows satisfying the constraint of real time processing with this prototype
APA, Harvard, Vancouver, ISO, and other styles
45

Burbano, Andres. "Système de caméras intelligentes pour l’étude en temps-réel de personnes en mouvement." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS139/document.

Full text
Abstract:
Nous proposons un système dedétection et de suivi des personnes enmouvement dans des grands espaces. Notresolution repose sur un réseau de camérasintelligentes pour l'extraction desinformations spatio-temporelles despersonnes. Les caméras sont composées d'uncapteur 3D, d'un système embarqué et decommunication. Nous avons montrél'efficacité du placement des capteurs 3D enposition zénithale par rapport auxoccultations et variations d’échelle.Nous garantissons l'exécution des traitementsen temps-réel (~20 fps), permettantde détecter des déplacements rapides avecune précision jusqu’à 99 %, et capable d’unfiltrage paramétrique des cibles non désiréescomme les enfants ou les caddies.Nous avons réalisé une étude sur la viabilitétechnologique des résultats pour de grandsespaces, rendant la solution industrialisable
We propose a detection and trackingsystem of people moving in large spacessystem. Our solution is based on a network ofsmart cameras capable of retrievingspatiotemporal information from the observedpeople. These smart cameras are composed bya 3d sensor, an onboard system and acommunication and power supply system. Weexposed the efficacy of the overhead positionto decreasing the occlusion and the scale'svariation.Finally, we carried out a study on the use ofspace, and a global trajectories analysis ofrecovered information by our and otherssystems, able to track people in large andcomplex spaces
APA, Harvard, Vancouver, ISO, and other styles
46

Tykkälä, Tommi. "Suivi de caméra image en temps réel base et cartographie de l'environnement." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933813.

Full text
Abstract:
Dans ce travail, méthodes d'estimation basées sur des images, également connu sous le nom de méthodes directes, sont étudiées qui permettent d'éviter l'extraction de caractéristiques et l'appariement complètement. L'objectif est de produire pose 3D précis et des estimations de la structure. Les fonctions de coût présenté minimiser l'erreur du capteur, car les mesures ne sont pas transformés ou modifiés. Dans la caméra photométrique estimation de la pose, rotation 3D et les paramètres de traduction sont estimées en minimisant une séquence de fonctions de coûts à base d'image, qui sont des non-linéaires en raison de la perspective projection et la distorsion de l'objectif. Dans l'image la structure basée sur le raffinement, d'autre part, de la structure 3D est affinée en utilisant un certain nombre de vues supplémentaires et un coût basé sur l'image métrique. Les principaux domaines d'application dans ce travail sont des reconstitutions d'intérieur, la robotique et la réalité augmentée. L'objectif global du projet est d'améliorer l'image des méthodes d'estimation fondées, et pour produire des méthodes de calcul efficaces qui peuvent être accueillis dans des applications réelles. Les principales questions pour ce travail sont : Qu'est-ce qu'une formulation efficace pour une image 3D basé estimation de la pose et de la structure tâche de raffinement ? Comment organiser calcul afin de permettre une mise en œuvre efficace en temps réel ? Quelles sont les considérations pratiques utilisant l'image des méthodes d'estimation basées sur des applications telles que la réalité augmentée et la reconstruction 3D ?
APA, Harvard, Vancouver, ISO, and other styles
47

Hostettler, Alexandre. "Modélisation et simulation patient-dépendante, préopératoire, prédictive, et temps-réel du mouvement des organes de l'abdomen induit par la respiration libre." Strasbourg 1, 2008. http://www.theses.fr/2008STR13218.

Full text
Abstract:
L'objectif de cette thèse est de modéliser et de simuler en temps réel le mouvement des viscères de l'abdomen durant la respiration libre à partir d'une acquisition 3D TDM. En effet, de nombreuses applications médicales (radiothérapie) ne compensent pas la variation de position des organes et aboutissent à des traitements potentiellement inadaptés. Nous utilisons un champ de déplacement calculé à partir du suivi optique de la position de la peau, et d'une modélisation patient-de��pendante du diaphragme à partir d'acquisitions en position inspirée et expirée. Les viscères sont assimilés à une entité unique et incompressible glissant le long du péritoine et de la plèvre. L'originalité de la méthode est de prendre en compte le déplacement cranio-caudal des viscères, mais également les déplacements latéraux et antéropostérieurs causés par l'asymétrie du mouvement. La position des viscères est alors calculée à 50 Hz, avec une précision évaluée sur deux patients comprise entre 2 et 3 mm
The aim of this PhD thesis is to model and simulate in real-time the viscera motion during free breathing using a 3D CT acquisition. Indeed, many medical applications (radiotherapy) do not compensate variations in organ position and lead potentially to ill adapted treatments. We use a deformation field computed from the knowledge of the skin position (optical tracking) and a patient specific modelling of the diaphragm (from 3D CT acquisitions in inhale and exhale position). Viscera are assimilated to a single incompressible entity sliding along the peritonea and the pleurae. The originality of the method is to take the cranio-caudal viscera motion into account, as well as the anteroposterior and lateral motion due to the asymmetry of the motion. The new viscera position is computed at 50 Hz, and its accuracy has been evaluated on two patients within 2 and 3 mm
APA, Harvard, Vancouver, ISO, and other styles
48

Abuhadrous, Iyad. "Système embarqué temps réel de localisation et de modélisation 3D par fusion multi-capteur." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00001118.

Full text
Abstract:
Cette étude va se focaliser sur trois aspects. Dans un premier temps, un effort sera porté sur l'aspect "localisation précise" du véhicule en mouvement. Pour cela, il est nécessaire de se pencher sur l'intégration et le traitement de l'information issue de systèmes hétérogènes de navigation: GPS et centrale inertielle (INS) auxquels sera rajoutée ensuite l'odométrie. La raison de cette intégration est d'exploiter les avantages de chacun des systèmes utilisés. L'intégration utilise un filtrage numérique pour procéder à une compensation des erreurs en position, vitesse, et en attitude issues de chaque capteur. L'accent n'a pas seulement été mis sur l'intégration, mais aussi sur les notions de précision des résultats. Dans un deuxième temps, nous allons nous intéresser à la fois à la validation quantitative et qualitative des résultats et à l'élaboration d'une application exploitant notre travail. Les erreurs du système sont comparées avec une trajectoire de référence. Nous avons choisi de réaliser un système de numérisation tridimensionnelle de l'environnement couplé à un système de modélisation adapté au type d'environnement. L'étude se penchera sur le capteur d'acquisition de données télémétriques et son intégration à bord du véhicule. Un intérêt particulier est porté sur la qualité et les imprécisions des données retournées par le télémètre. L'acquisition des données se fera au vol et pendant le déplacement du véhicule. Enfin, le modèle obtenu sera exploité, de deux manières: la constitution d'un modèle géométrique et topologique précis puis l'extraction d'informations sémantiques du modèle (extraction de la route ou des obstacles fixes, identifications d'amers, caractérisation de la route, etc.).
APA, Harvard, Vancouver, ISO, and other styles
49

Mouragnon, Etienne. "Reconstruction 3D et localisation simultanée de caméras mobiles : une approche temps-réel par ajustement de faisceaux local." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00925661.

Full text
Abstract:
Le problème de la reconstruction 3D à partir d'une séquence d'images acquise par une caméra en mouvement est un sujet important dans le domaine de la vision par ordinateur. Ce travail de thèse présente une méthode qui permet d'estimer conjointement des points 3D de la scène filmée et le mouvement de la caméra en combinant la précision des méthodes "horsligne" (basées sur une optimisation globale de tous les paramètres par ajustement de faisceaux) et la vitesse de calcul des méthodes incrémentales. La nouvelle approche est considérée comme une accélération des techniques classiques de reconstruction 3D qui utilisent l'ajustement de faisceaux, permettant ainsi de traiter de longues séquences vidéos. L'algorithme développé peut être résumé de la façon suivante : détection de points d'intérêt dans les images, mise en correspondance de ces points et souséchantillonnage temporel de la vidéo. En effet, seul un sousensemble d'images dites "images clef" est sélectionné pour la reconstruction des points 3D alors que la localisation de la caméra est calculée pour chaque image. Le point clef de l'approche est l'ajustement de faisceaux local : les paramètres de la reconstruction sont affinés sur la fin de la séquence uniquement, à chaque fois qu'une image est choisie comme nouvelle image clef. La méthode, initialement prévue pour les caméras perspectives, a ensuite été généralisée de manière à rendre possible l'utilisation d'autres types de caméras, comme les caméras catadioptriques ou encore les paires rigides de caméras. Les résultats obtenus montrent que la précision atteinte est du même ordre que celle des méthodes par optimisation globale, avec des temps de calcul très réduits, ce qui permet de viser des applications d'odométrie visuelle temps réel pour la robotique mobile ou l'aide à la conduite en automobile. Realtime
APA, Harvard, Vancouver, ISO, and other styles
50

Mouragnon, Etienne. "Reconstruction 3D et localisation simultanée de caméras mobiles : une approche temps-réel par ajustement de faisceaux local." Phd thesis, Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21799.

Full text
Abstract:
Le problème de la reconstruction 3D à partir d'une séquence d'images acquise par une caméra en mouvement est un sujet important dans le domaine de la vision par ordinateur. Ce travail de thèse présente une méthode qui permet d'estimer conjointement des points 3D de la scène filmée et le mouvement de la caméra en combinant la précision des méthodes "hors-ligne" (basées sur une optimisation globale de tous les paramètres par ajustement de faisceaux) et la vitesse de calcul des méthodes incrémentales. La nouvelle approche est considérée comme une accélération des techniques classiques de reconstruction 3D qui utilisent l'ajustement de faisceaux, permettant ainsi de traiter de longues séquences vidéos. L'algorithme développé peut être résumé de la façon suivante : détection de points d'intérêt dans les images, mise en correspondance de ces points et sous-échantillonage temporel de la vidéo. En effet, seul un sous-ensemble d'images dites "images clefs" est sélectionné pour la reconstruction des points 3D alors que la localisation de la caméra est calculée pour chaque image. Le point clef de l'approche est l'ajustement de faisceaux local : les paramètres de la reconstruction sont affinés sur la fin de la séquence uniquement, à chaque fois qu'une image est choisie comme nouvelle image clef. La méthode, initialement prévue pour les caméras perspectives, a été généralisée de manière à rendre possible l'utilisation d'autres types de caméras, comme les caméras catadioptriques ou encore les paires rigides de caméras. Les résultats obtenus montrent que la précision atteinte est du même ordre que celle des méthodes par optimisation globale, avec des temps de calcul très réduits, ce qui permet de viser des applications d'odométrie visuelle temps-réel pour la robotique mobile ou l'aide à la conduite en automobile
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography