Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Réseau tridimensionnel.

Dissertationen zum Thema „Réseau tridimensionnel“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Réseau tridimensionnel" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Cafun, Jean-Daniel. „Photomagnétisme dans les analogues cobalt-fer du bleu de prusse : rôle des espèces du réseau tridimensionnel“. Paris 11, 2009. http://www.theses.fr/2009PA112007.

Der volle Inhalt der Quelle
Annotation:
Le photomagnétisme est un axe de recherche en pleine expansion dans le domaine des matériaux inorganiques moléculaires, motivé en partie par les éventuelles perspectives d’application pour le stockage de l’information. C’est dans ce cadre que s’inscrit ce travail de thèse. En 1996, l’équipe du professeur Hashimoto, à Tokyo, met en évidence un cas de magnétisme photoinduit dans un analogue cobalt-fer du bleu de Prusse. Un transfert d’électron photoinduit CoIII(BS)-NC-FeII(BS)  CoII(HS)-NC-FeIII(BS) dans des paires diamagnétiques, formées au cours de la synthèse du matériau, est à l’origine du gain d’aimantation après irradiation, au-dessous de 20 K. Les analogues CoFe du bleu de Prusse restent de bons modèles très intéressants à étudier car ils reproduisent parfaitement la fonction de mémoire des composants traditionnellement utilisés dans l’industrie électronique. Pour pouvoir un jour espérer utiliser les analogues CoFe du bleu de Prusse pour stocker une information, il faut impérativement augmenter la température d’observation de l’effet photomagnétique. Pour cela nous allons chercher à mieux comprendre le rôle joué par les différentes espèces du réseau tridimensionnel dans un analogue photomagnetique de composition chimique Rb2Co4[Fe(CN)6]3,3•11H2O pour but de trouver les conditions chimiques nécessaires pour observer l’effet photomagnétique et moduler les propriétés. Les espèces chimiques du réseau 3D sont le ligand cyanure, les espèces composant le réseau tridimensionnel (les ions Co et les entités [Fe(CN)6] et le cation alcalin. La determination du paramètre de champ cristallin des ions Co dans l’analogue photo-commutable avant et après irradiation par spectroscopie absorption des rayons X au seuil L2,3 a permis de définir le rôle joué par le ligand cyanure sur les propriétés photomagnétiques. Les études des effets de la substitution/dilution ont permis de comprendre les rôles joués par les espèces Co, les entités [Fe(CN)6] et les cations alcalins sur les propriétés photomagnétiques
One of the challenges in the field of molecular magnetism is the design of optically and thermally switchable magnetic materials for which various kinds of applications may be feasible. The long-known photomagnetic CoFe Prussian blue analogs (PBA) appear to have great potentials for these technological applications. The photomagnetic properties in Co-Fe PBA were evidenced by Hashimoto et al. Ten years ago. They are due to a photo-induced electron transfer CoIII(LS)-FeII(LS)  CoII(HS)-FeIII(LS). Some significant results concerning the formation of photomagnetic CoIII-FeII pairs and the effect of the amount and nature of inserted alkali-metals on the photomagnetic properties of these compounds have been reported. However the phenomenon is not yet totally understood. In order to understand the switching properties in the Co-Fe Prussian blue analogues, we have studied the role play by each chemical species forming the 3D network in the photomagnetic Prussian blue analogue of chemical formula Rb2Co4[Fe(CN)6]3,3•11H2O. The chemical species forming the 3D network are Co ions, [Fe(CN)6] entities and alkali metal ions. The determination of the Co ligand field parameter in the rubidium compound has allowed the understanding of the role of the cyanide ligand. The effect of the substitutions of the Co, [Fe(CN)6] entities and the alkali metal ions have allowed to understand the role played by these species in the photomagnetic properties
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Yu, Ning. „Étude de la cinétique de polymérisation radicalaire du styrène dans un réseau tridimensionnel et application à la valorisation de pneus usagés“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0277.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour objet de développer une nouvelle méthodologie pour valoriser les poudrettes de pneus usagés (PPU). Celles-ci résultent du broyage de la partie caoutchoutique des pneus usagés qui conserve l’excellente élasticité. L’idée est de profiter de leur élasticité pour renforcer la résistance au choc des polymères fragiles tels que le polystyrène (PS) en y incorporant les PPU. Cependant, la réalisation de cette idée a besoin de relever deux défis majeurs : (1) les PPU commerciales ont typiquement des diamètres de l’ordre de plusieurs centaines de micromètres. Or elles doivent être deux ordres de grandeur plus petits en taille pour pouvoir améliorer la résistance au choc des polymères fragiles. (2) L’adhésion interfaciale entre les polymères et les PPU est mauvaise et constitue donc des défauts mécaniques du matériau. Ces deux défis sont liés à la nature même des PPU qui sont intrinsèquement des réseaux réticulés chimiquement. Cette thèse choisit le PS pour représenter les polymères fragiles. La méthodologie visant à renforcer sa résistance au choc est de polymériser le styrène par voie radicalaire au sein des PPU. Cette polymérisation forme à la fois des chaines en PS libres et des greffons en PS liés chimiquement aux mailles du réseau des PPU. Les inclusions des chaines en PS libres facilitent la dispersion des PPU en taille plus petite lorsqu’une action mécanique leur est appliquée lors de l’extrusion par exemple. La formation des greffons en PS sur les mailles du réseau des PPU renforce l’adhésion interfaciale entre le PS et les PPU. Cette thèse a développé un modèle complet permettant de décrire la cinétique de polymérisation radicalaire du PS libre et celle des greffons en PS liés aux mailles du réseau des PPU. Elle l’a validé par un plan d’expériences judicieux
This thesis aims to develop a novel approach to value ground tire rubber (GTR). The latter results from grounding of the rubber part of used tires which retains excellent elasticity. The idea is to take the advantage of its elasticity to toughen brittle polymers such as polystyrene (PS) upon incorporating GTR into them. However, two challenges have to be overcome to realize this idea. (1) Commercial GTR is typically in the form of particles of a few hundreds of micrometers in diameter. However, it has to be at least one to two orders of magnitude smaller when incorporated in a brittle polymer so as to be able to improve its impact resistance. (2) The interfacial adhesion between the polymer and GTR is weak. These two challenges are related to the intrinsic nature of the GTR which is chemically cross-linked. This thesis chooses PS to represent brittle polymers. The approach aiming at toughening it is to polymerize styrene in a free radical manner inside cross-linked GTR particles. This leads to the formation of both free PS and PS that is grafted onto the GTR, denoted as grafted PS. The inclusions of the free PS inside the GTR particles help break them down by mechanical shear in a screw extruder for example and the formation of grafted PS improves the interfacial adhesion between the PS and the GTR. This thesis has developed a comprehensive kinetic model for the polymerization of free PS and that of grafted PS. This model is validated by experimental designs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Lope, Alonso Luis Francisco de. „Développement d'un modèle tridimensionnel couplant sur les approches "milieu poreux équivalent" et "réseau des fractures discrètes" pour la modélisation de l'écoulement dans les massifs fissurés“. Paris, ENMP, 1993. http://www.theses.fr/1993ENMP0714.

Der volle Inhalt der Quelle
Annotation:
La modelisation des milieux fractures, dans le cadre de l'analyse de surete du stockage des dechets radioactifs dans des formations geologiques profondes, repose sur deux types de modeles en fonction de l'echelle d'etude: le milieu poreux equivalent a l'echelle locale et le modele a fractures discretes a l'echelle regionale. Un outil numerique a ete developpe base sur le raccordement de ces deux modeles. A l'aide du modele concu, un site ideal est simule en utilisant des donnees provenant de sites reels. La permeabilite regionale est issue du site d'auriat. La distribution des parametres de la fracturation est inspiree de fanay-augeres. Neanmoins, plusieurs donnees ont ete modifies afin de representer des conditions plus realistes. Les parametres cles consideres comme indicateurs du comportement hydraulique du modele sont la distribution des charges et les debits sur plusieurs plans du domaine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Biais, Pauline. „Synthèse de copolymères amphiphiles triblocs BAB par PISA-RAFT dans l'eau“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS256.

Der volle Inhalt der Quelle
Annotation:
Depuis une dizaine d’années, l’auto-assemblage induit par polymérisation (PISA) s’est révélé être un outil efficace pour la préparation de nanoparticules à base de copolymères amphiphiles à des taux de solide élevés, aussi bien dans des solvants organiques que dans l’eau. Jusqu’à présent, la plupart des systèmes étudiés concernaient les copolymères diblocs AB (dans lesquels A = bloc solvophile stabilisant, et B = bloc solvophobe). Un autre type de copolymères à blocs intéressant est le tribloc associatif BAB. Peu d’études décrivent leur synthèse par PISA et les polymérisations sont réalisées dans des mélanges alcool/eau. Dans ce travail de thèse, et pour la première fois, la synthèse par voie radicalaire contrôlée de copolymères triblocs BAB par PISA a été réalisée dans l’eau pure et une étude approfondie du système a été menée. Un macro-agent RAFT hydrophile symétrique à base de poly(acrylamide de N,N-diméthyle) possédant une unité acide benzoïque au centre, et le diacétone acrylamide (blocs B) ont été sélectionnés pour étudier ce système. Des particules de différentes morphologies (sphères, fibres et vésicules) ont pu être obtenues avec de bons contrôles des polymérisations. Nous avons montré que le degré d’ionisation de l’unité centrale acide benzoïque du bloc stabilisant jouait un rôle crucial dans la stabilité du système et la morphologie obtenue. Le mécanisme de formation de ces copolymères triblocs au cours de la PISA a également été étudié. Enfin, nous avons montré qu’il était possible de former des réseaux dynamiques de copolymères BAB – via un procédé one-pot entièrement dans l’eau – menant à la formation de systèmes thermosensibles avec une viscosité modulable
Over the past decade, the polymerization-induced self-assembly (PISA) has become an efficient tool for the preparation of block-copolymer nanoparticles at high solid contents, in both organic solvents and water. Nonetheless, most of the studied systems are currently based on simple AB diblock copolymers (where A = solvophilic, stabilizer block and B = solvophobic block). Another interesting class of block copolymers are associative BAB triblocks. To the best of our knowledge, very few studies report their synthesis by PISA and the polymerizations are performed in mixtures of alcohol and water. In this work, for the first time, a straightforward strategy to synthesize, in pure water, BAB triblock copolymers through the use of reversible deactivation radical polymerization is developed and studied in details. To this end, an hydrophilic, bifunctional macroRAFT agent of poly(N,N-dimethylacrylamide) with a central benzoic acid group was used in the aqueous dispersion polymerization of diacetone acrylamide. Various morphologies (spheres, fibers and vesicles) could be obtained with good polymerization controls. Moreover, we showed that the particle morphology and colloidal stability strongly depend on the degree of ionization of the central charge in the stabilizer loop. Then, the mechanism of formation of these triblock copolymers during PISA was investigated. Finally, we showed the possibility to form dynamic networks of BAB copolymers – using a one-pot process entirely in water – leading to the formation of thermoresponsive copolymer networks with tunable viscosity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lauwers, Frédéric. „Etude quantitative tridimensionnelle du réseau micro-vasculaire du cortex cérébral humain“. Toulouse 3, 2007. http://thesesups.ups-tlse.fr/173/.

Der volle Inhalt der Quelle
Annotation:
Des informations anatomiques quantitatives précises sont indispensables à la compréhension de la microcirculation du cortex cérébral humain. Le but de ce travail est d'introduire une méthode d'analyse tridimensionnelle des vaisseaux permettant d'obtenir les données morphométriques et topologiques pertinentes, indispensables à une approche biomécanique du système. Les images sont numérisées en microscopie confocale à partir de coupes d'un cerveau injecté à l'encre de Chine. Une étape de segmentation automatique permet d'obtenir des informations directes sur la morphométrie et la topologie du réseau. L'analyse tient compte de la dualité du réseau Les artérioles et les veinules corticales ont une structure arborescente alors que le réseau capillaire est un réseau maillé. L'extraction des arborescences utilise une méthode originale respectant une contrainte de résistance. Les arborescences sont soumises à une analyse topologique (système de Strahler) et quantitative complète (longueur, diamètre, géométrie des bifurcations, rapports de branchement). Une analyse spatiale de la densité micro-vasculaire est proposée dans tous les plans de l'espace. Une zone d'hyperdensité vasculaire dans le tiers moyen du cortex est délimitée. Dans un plan parallèle à la surface l'analyse spatiale décrit une périodicité dont la fréquence est discutée par rapport au schéma fonctionnel des colonnes corticales. Les résultats proposés sont mis en balance avec d'autres obtenus le plus souvent dans des études animales et par des analyses en 2 dimensions. Il est actuellement reconnu que les limites de la résolution spatiale en imagerie fonctionnelle par résonnance magnétique sont déterminées par l'anatomie de la microcirculation. La contribution de ce travail à l'imagerie fonctionnelle est discutée. De nombreux domaines peuvent tirer partie de la méthode utilisée dans ce travail, indépendamment de l'espèce ou de l'organe
Detailed information on microvascular network anatomy is a requirement for understanding several aspects of microcirculation, including interpretation of haemodynamically based functional imaging methods, but very few quantitative data on the human brain microcirculation are available. The main objective of this study is to propose a new method to analyze this microcirculation. From thick sections of India ink-injected human brain, using confocal laser microscopy, the author developed algorithms adapted to very large data sets to automatically extract and analyze centre lines together with diameters of thousands of brain microvessels within a large cortex area. From this database the global densities, the statistical distributions of diameters and lengths were analysed, separating the tree-like and the net-like parts of the microcirculation. The topological structure of the cerebral arterioles and venules is tree-like, while that of the capillaries is net-like. Because of this essential difference in nature, the topology of these branching or mesh structures must be analyzed separately. To extract a vascular tree from the skeleton, we identified its origin in the sulcus and traced automatically all the paths from this origin through vessels in which resistance to flow is lower than a prescribed value. The branching pattern of the arteriolar and venous trees extracted is best described by the diameter defined Strahler system. Furthermore, our analysis included variations in volume density along the cortical depth and along vectors parallel to the cortical surface. It appears that spatial specificity of fMRI signals at an intracortical level could profit from precise quantitative evaluation of the vascular network suggested by the present anatomic study
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bendaikha, Tahar. „Photopolymérisation réticulante de macromères multifonctionnels : comportement photochimique de réseaux polyacryliques tridimensionnels“. Mulhouse, 1986. http://www.theses.fr/1986MULH0016.

Der volle Inhalt der Quelle
Annotation:
Cinétique de la photopolymérisation des macromères multiacrylates, influence des constituants de la résine photosensible; influence de l'oxygène sur la photopolymérisation de résines multiacrylates; influence de l'intensité lumineuse; caractéristiques des réseaux polymères photoréticulés. Photodégradation des réseaux époxy-acrylates; photooxydation des polyuréthannes acrylates réticules
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lacroix, Marie. „Méthodes pour la reconstruction, l'analyse et l'exploitation de réseaux tridimensionnels en milieu urbain“. Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066001/document.

Der volle Inhalt der Quelle
Annotation:
Des catastrophes comme celles de Ghislenghien (Belgique), Ludwigshafen (Allemagne), ou Lyon (France), ont été attribuées à des travaux à proximité de réseaux de gaz. Bien que les canalisations soient une des méthodes les plus sures de transport pour les substances dangereuses, chaque année plusieurs cas d'accidents sont enregistrés en France. La plupart d'entre eux sont attribués à des travaux à proximité des réseaux et certains illustrent le manque de fiabilité des informations fournies. Pour prévenir de tels accidents qui impliquent les ouvriers et le public, les autorités françaises ont mis en place deux réglementations : DT-DICT : pour la sécurisation des réseaux à proximité d'excavation ; Multifluide : pour celle des réseaux dangereux lors d'événements aléatoires. Eviter de tels accidents nécessite d'acquérir et de contrôler des informations 3D concernant les différents réseaux urbains, et particulièrement ceux enterrés. Des stratégies de prévention doivent alors être adoptées. Voilà pourquoi travailler sur les réseaux et leur visualisation et la cartographie des risques, en prenant en compte le flou, est une recherche récente et importante. Les applications logicielles que je développe devraient aider les services publics et les entrepreneurs à se concentrer sur la prévention des événements dangereux grâce à des ensembles de données précises pour les utilisateurs, la définition d'un réseau de géomatique, mais aussi des méthodes telles que la triangulation, la modélisation par éléments, les calculs géométriques, l'intelligence artificielle, la réalité virtuelle
Disasters like the ones that happened in Ghislenghien (Belgium), Ludwigshafen (Germany), or Lyon (France), have been attributed to excavations in the vicinity of gas pipelines. Though pipes are one of the safest methods of transportation for conveying hazardous substances, each year many cases of damage to gas pipes are recorded in France. Most of them are due to works in the vicinity of the networks and some illustrate the lack of reliability of the provided information. Concessionaries have to take stock of the situation and to suggest areas of improvement, so that everyone could benefit from networks becoming safer.To prevent such accidents which involve workers and the public, French authorities enforce two regulations: DT / DICT: reform of the network no-damage by securing the excavations, Multifluide: reform which is interested in securing networks of hazardous events.So, to avoid such accidents or other problems, it is necessary to acquire and control the 3D information concerning the different city networks, especially buried ones.Preventive strategies have to be adopted. That’s why working on the networks and their visualization and risk cartography, taking the blur into account, is a recent and appropriate research. The software applications I develop should help the utility and construction contractors and focus on the prevention of hazardous events thanks to accurate data sets for users and consumers, the definition of a geomatics network but also some methods such as triangulation methods, element modeling, geometrical calculations, Artificial Intelligence, Virtual Reality
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lacroix, Marie. „Méthodes pour la reconstruction, l'analyse et l'exploitation de réseaux tridimensionnels en milieu urbain“. Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066001.

Der volle Inhalt der Quelle
Annotation:
Des catastrophes comme celles de Ghislenghien (Belgique), Ludwigshafen (Allemagne), ou Lyon (France), ont été attribuées à des travaux à proximité de réseaux de gaz. Bien que les canalisations soient une des méthodes les plus sures de transport pour les substances dangereuses, chaque année plusieurs cas d'accidents sont enregistrés en France. La plupart d'entre eux sont attribués à des travaux à proximité des réseaux et certains illustrent le manque de fiabilité des informations fournies. Pour prévenir de tels accidents qui impliquent les ouvriers et le public, les autorités françaises ont mis en place deux réglementations : DT-DICT : pour la sécurisation des réseaux à proximité d'excavation ; Multifluide : pour celle des réseaux dangereux lors d'événements aléatoires. Eviter de tels accidents nécessite d'acquérir et de contrôler des informations 3D concernant les différents réseaux urbains, et particulièrement ceux enterrés. Des stratégies de prévention doivent alors être adoptées. Voilà pourquoi travailler sur les réseaux et leur visualisation et la cartographie des risques, en prenant en compte le flou, est une recherche récente et importante. Les applications logicielles que je développe devraient aider les services publics et les entrepreneurs à se concentrer sur la prévention des événements dangereux grâce à des ensembles de données précises pour les utilisateurs, la définition d'un réseau de géomatique, mais aussi des méthodes telles que la triangulation, la modélisation par éléments, les calculs géométriques, l'intelligence artificielle, la réalité virtuelle
Disasters like the ones that happened in Ghislenghien (Belgium), Ludwigshafen (Germany), or Lyon (France), have been attributed to excavations in the vicinity of gas pipelines. Though pipes are one of the safest methods of transportation for conveying hazardous substances, each year many cases of damage to gas pipes are recorded in France. Most of them are due to works in the vicinity of the networks and some illustrate the lack of reliability of the provided information. Concessionaries have to take stock of the situation and to suggest areas of improvement, so that everyone could benefit from networks becoming safer.To prevent such accidents which involve workers and the public, French authorities enforce two regulations: DT / DICT: reform of the network no-damage by securing the excavations, Multifluide: reform which is interested in securing networks of hazardous events.So, to avoid such accidents or other problems, it is necessary to acquire and control the 3D information concerning the different city networks, especially buried ones.Preventive strategies have to be adopted. That’s why working on the networks and their visualization and risk cartography, taking the blur into account, is a recent and appropriate research. The software applications I develop should help the utility and construction contractors and focus on the prevention of hazardous events thanks to accurate data sets for users and consumers, the definition of a geomatics network but also some methods such as triangulation methods, element modeling, geometrical calculations, Artificial Intelligence, Virtual Reality
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Salomé, Murielle. „Acquisition et quantification d'images du réseau trabéculaire osseux en microtomographie tridimensionnelle utilisant le rayonnement synchrotron“. Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0023.

Der volle Inhalt der Quelle
Annotation:
L'architecture de l'os trabéculaire, qui conditionne avec la densité osseuse ses propriétés mécaniques, est constituée de travées d'une épaisseur moyenne de 100 microns arrangées de façon anisotrope en trois dimensions. L'étude de cette structure demande donc idéalement une modalité d'imagerie haute résolution et tridimensionnelle (30). La tomographie X, qui permet de reconstruire de façon non destructive une image 3D d'un échantillon à partir de projections sous différents angles de vue, est une technique adaptée. Ces travaux de thèse portent sur la mise au point d'un système d'acquisition micro-tomographique utilisant le rayonnement synchrotron, spécialement dédié à l'imagerie de la structure osseuse. Grâce aux propriétés du rayonnement synchrotron, le système que nous avons développé à l'ESRF, Grenoble, fournit des images 3D d'échantillons osseux in vitro avec une résolution spatiale de l'ordre de 10 microns. Afin de mesurer sur ces images des paramètres morphologiques et topologiques représentatifs de l'architecture osseuse, nous avons développé des outils de quantification 2D et 30. Les paramètres mesurés ont été comparés à des mesures histomorphométriques conventionnelles. Nous avons également étudié l'influence de la résolution spatiale des images sur la quantification de l'architecture trabéculaire, en simulation et dans un cas réel par des mesures croisées entre notre système et un scanner micro-tomographique de plus basse résolution spatiale. Les outils d'imagerie et de quantification développés ont enfin été utilisés dans le cadre d'une étude portant sur l'évolution de l'architecture osseuse avec le vieillissement. Nous avons également abordé d'autres applications comme le suivi de l'effet structural de médicaments contre l'ostéoporose ou l'étude de l'organisation de l'os trabéculaire fœtal
Trabecular bone architecture which determines bone density and its mechanical properties is highly anisotropic and made of trabeculae with an average thickness of 100 microns. As a consequence, the study of this structure ideally requires a high resolution three-dimensional (3D) imaging tool. X-ray tomography which allows reconstructing non-destructively a 3D image of a sample from projections taken at different. Viewing angles is well ml1ted. This work deals with the development of a microtomographic imaging system using synchrotron radiation and dedicated to bone structure studies. Thanks to the properties of synchrotron radiation, the system which we have developed at ESRF, Grenoble, provides 3D images of bone samples in vitro with a spatial resolution around 10 microns. In order to measure morphometric and topological parameters representative of bone structure from these images, we have developed 2D and 3D quantification tools. These parameters have been compared to conventional histomorphometric measurements. The influence of spatial résolution on the evaluation of bone architecture has also been studied, both in simulation and in a real case by comparing measurements performed with our system and with a lower spatial resolution nùcrotomographic scanner. These imaging and quantification tools have been used in a study dealing with the evolution of the structure of trabecular bone with aging. We have also investigated other applications like the study of the structural effects of drugs against osteoporosis and the study of fetal trabecular bone
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Pointillart, Fabrice. „Magnétisme et chiralité : des réseaux tridimensionnels à pont oxalate aux chaînes à pont verdazyl“. Paris 6, 2005. http://www.theses.fr/2005PA066348.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Letort, Cédric. „Modélisation, implantation et caractérisation de fonctions de routage tridimensionnel de canaux optiques pour les réseaux WDM“. Rennes 1, 2007. http://www.theses.fr/2007REN1S046.

Der volle Inhalt der Quelle
Annotation:
L'introduction de la transparence optique sélective (insertion-extraction et brassage de longueurs d'onde) dans les noeuds de routage des réseaux WDM est un sujet d'étude majeur visant à déterminer de nouvelles architectures de transmission. Dans ce contexte, le commutateur sélectif en longueur d'onde (Wavelength Selective Switch) apparaît comme l'élément clé d'une architecture flexible pour la gestion des noeuds de réseau optique assurant à lui seul les fonctions d'aiguillage optique sélectif en longueur d'onde et de contrôle de la puissance des canaux optiques. L'étude que nous présentons adopte une approche basée sur une déflexion digitale de faisceau optique d'une grande flexibilité, assurée par des réseaux de diffraction affichés sur un modulateur spatial de lumière à cristal liquide. Nous décrivons ainsi l'intégration et les tests d'un déflecteur holographique utilisant la technologie LCOS (Liquid Crystal On Silicon) dont les paramètres de réalisation sont optimisés pour une implantation dans un réseau de transport à fibres optiques. La modélisation d'un système d'interconnexions optiques fibre à fibre reconfigurable par déflexion holographique conduit à l'optimisation de la topologie d'adressage du système et à la conception d'une matrice bidimensionnelle de fibres monomodes de grande capacité adaptée aux paramètres d'adressage de notre système. La réalisation et la caractérisation d'un prototype de commutation holographique regroupant les éléments précédemment cités sont détaillées, nous amenant à l'évaluation des performances et le test des différentes fonctions de notre système
The avenment of selective optical transparency (wavelength insertion-extraction and cross-connect) in WDM network optical nodes is a fundamental study dedicated to find some new transmission architectures. In this frame, the Wavelength Selective Switch appears as a key component to obtain a flexible management of optical network nodes diplaying both wavelength selective optical routing and optical channel power control functions. The study we present here is based on optical beam digital deflection with high flexibility, obtained with diffraction grating displayed on a liquid crystal spatial light modulator. We describe here the integration and test of an holographic deflector using LCOS (Liquid Crystal On Silicon) technology whose parameters of realization are optimized for an optical transmission network environment. The modeling of a reconfigurable fibre to fibre optical interconnections system based on holographic deflection leads to the optimization of the adressing map and to the realization of a specific bidimensionnal monomode fiber array with high capacity. All these elements are assembled in a holographical switch prototype whose optical functions are tested
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Achour, Rim. „Etude de la fissuration précoce d’une série argileuse : analyse tridimensionnelle du réseau fissural et modélisation numérique“. Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1509.

Der volle Inhalt der Quelle
Annotation:
Ce travail, issu d’une coopération entre l’ENSMP et l’ANDRA pour l’étude d’un stockage potentiel de déchets radioactifs en formation géologique profonde, s’intéresse à la fissuration précoce d’argilites provenant de la colline du Puy (S-E de la France). L’originalité du travail consiste à avoir tenté de reconstituer les différentes phases de l’histoire géologique du matériau depuis son état initial de sédiment mou jusqu’à son état induré et tenté de comprendre les facteurs ayant engendré l’initiation de la fissuration précoce. En se basant sur la géologie de la colline du Puy et sur les observations et analyses minéralogiques des échantillons représentatifs de cette série, un scénario de mise en place des premières générations de fissures précoces a été proposé. Dans le but de confirmer ce scénario, une méthodologie basée sur l’utilisation du logiciel Gocad, a été établie pour reconstituer en 3D et individualiser les différentes générations de fissures. Cette méthode confirme les résultats obtenus par les méthodes utilisées précédemment et nous renseigne sur la nature des premières déformations. Une modélisation hydromécanique utilisant le logiciel Flac, valide sur un modèle constitué d’un banc marneux intercalé entre deux bancs argileux, l’apparition d’une déformation localisée sur des hétérogénéités de la structure de la roche. Une des originalités de la démarche suivie est d’avoir permis de repérer les déformations précoces dans des bancs plus calcaires dont l’induration rapide a permis la conservation des informations permettant l’établissement d’une chronologie de la fissuration applicable à l’ensemble de la série
This research arose from the co-operation between ENSMP and ANDRA for the study of a potential geological formation for the disposal of the radioactive waste. A main goal is the study of the early cracking within shales from “le Puy” hill in the S-E of France. The originality consists in trying to reconstitute through a timescale the phases of the geological history of the sediment since its mud state to its hardened state. Thus to be able to understand the factors which generated the initiation of early cracking. A scenario of the early cracking based on the study of the structure and the lithology of and from observations and analyses of representative samples was proposed. With the aim of confirming this scenario, a methodology based on the GOCAD software, was established to be able to reconstitute in 3D and individualize the generations of cracks. This confirms the results obtained by other methods and informs us about the nature of the modes of deformations. A numerical FLAC hydro-mechanic modelling simulates a model composed of a marl band intercalated between two argillaceous bands. The model validates the first modes of deformations located on heterogeneities. The witnesses of this history of the early deformations affecting the lithological series are very largely obliterated in the most argillaceous layers. It is one of the originalities of this work to have made it possible to locate them in marl layers whose fast induration allowed their conservation then to gather the informations allowing the establishment of a chronology of cracks applicable to the whole series
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Windyga, Zajalzkowski Piotr Stanislaw. „Évaluation et modélisation de connaissances pour la reconstruction tridimensionnelle du réseau vasculaire cardiaque en angiographie biplan“. Rennes 1, 1994. http://www.theses.fr/1994REN10057.

Der volle Inhalt der Quelle
Annotation:
La reconstruction tridimensionnelle du reseau vasculaire cardiaque represente aujourd'hui un enjeu important, offrant au medecin les moyens de preciser son diagnostic et ses gestes therapeutiques. Dans le cadre de la technologie biplan, la reconstruction des coronaires est ici recherchee a partir de deux images de projection et d'une connaissance a priori sur l'objet anatomique. Une partie importante de ce travail est consacree a l'evaluation et a la modelisation des connaissances liees aux espaces bidimensionnels images (2d) et tridimensionnel (3d) de la structure etudiee. Les connaissances jugees exploitables pour la reconstruction d'arbres coronariens, sont de nature qualitative et expriment des proprietes globales, comme la disposition spatiale des arteres en 2d et 3d et la forme du reseau vasculaire. La methodologie de reconstruction proposee est presentee en derniere partie de ce memoire. Elle est basee sur la generation de toutes les solutions de reconstruction possibles, suivie d'une etape de filtrage a partir de la connaissance 3d. La connaissance 2d est exploitee en amont pour reduire la taille de l'espace de recherche. La methode est validee sur donnees reelles au moyen d'une implementation particuliere. Ce travail permet de bien mettre en evidence la connaissance exploitable pour la reconstruction et de proposer un schema de base suffisamment solide pour des developpements ulterieurs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

De, Rainville François-Michel. „Placement interactif de capteurs mobiles dans des environnements tridimensionnels non convexes“. Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25896.

Der volle Inhalt der Quelle
Annotation:
La présente thèse propose un système complet de placement de capteurs mobiles dans un environnement pleinement tridimensionnel et préalablement inconnu. Les capteurs mobiles sont des capteurs placés sur des unités robotiques autonomes, soit des véhicules possédant une unité de calcul et pouvant se déplacer dans l’environnement. Le placement de capteur est fondé sur une vue désirée par un utilisateur du système nommé vue virtuelle. La vue virtuelle est contrôlée à distance en changeant les paramètres intrinsèques et extrinsèques du capteur virtuel, soit sa position, sa résolution, son champ de vue, etc. Le capteur virtuel n’est alors soumis à aucune contrainte physique, par exemple il peut être placé à n’importe quelle hauteur dans l’environnement et avoir un champ de vue et une résolution arbitrairement grande. Les capteurs mobiles (réels) ont pour tâche de récupérer toute l’information contenue dans le point de vue virtuel. Ce n’est qu’en combinant leur capacité sensorielle que les capteurs mobiles pourront capter l’information demandée par l’utilisateur. Tout d’abord, cette thèse s’attaque au problème de placement de capteurs en définissant une fonction de visibilité servant à évaluer le positionnement d’un groupe de capteurs dans l’environnement. La fonction de visibilité développée est applicable aux environnements tridimensionnels et se base sur le principe de ligne de vue directe entre un capteur et la cible. De plus, la fonction prend en compte la densité d’échantillonnage des capteurs afin de reproduire la densité désirée indiquée par le capteur virtuel. Ensuite, ce travail propose l’utilisation d’un modèle de l’environnement pleinement tridimensionnel et pouvant être construit de manière incrémentale, rendant son utilisation possible dans un environnement tridimensionnel non convexe préalablement inconnu. Puis, un algorithme d’optimisation coopératif est présenté afin de trouver simultanément le nombre de capteurs et leur positionnement respectif afin d’acquérir l’information contenue dans la vue virtuelle. Finalement, la thèse démontre expérimentalement dans diverses conditions que le système proposé est supérieur à l’état de l’art pour le placement de capteurs dans le but d’observer une scène bidimensionnelle. Il est aussi établi expérimentalement en simulation et en réalité que les performances se transposent à l’observation d’environnements tridimensionnels non convexes préalablement inconnus.
This Thesis proposes a novel mobile sensor placement system working in initially unknown three dimensional environment. The mobile sensors are fix sensors placed on autonomous robots, which are ground and aerial vehicles equipped with computing units. The sensor placement is based on a user-defined view, named the virtual view. This view is manipulated through a virtual sensor intrinsic and extrinsic parameters, such as its position, orientation, field of view, resolution, etc. The virtual sensor is not subject to any physical constraint, for example it can be place where no sensor could be or it possess an arbitrary large field of view and resolution. The mobile (real) sensors have to acquire the entire information contained in this virtual view. It is only by combining the sensory capacity of an unknown number of sensors that they can acquire the necessary information. First, this Thesis addresses the sensor placement problem by defining a visibility function to qualify a group of sensor configurations in the environment. This function is applicable to three dimensional environments and is based on direct line of sight principle, where we compute the sensor sampling density in its visibility region. Then, this Thesis proposes the use of an incrementally built model of the environment containing all the information needed by the objective function. Next, a cooperative optimization algorithm is put forward to simultaneously find the number of sensors and their respective position required to capture all the information in the virtual view. Finally, the proposed system is experimentally shown to use less sensor to acquire the scene of interest at a higher resolution than state of the art methods in initially known two dimensional environments. It is also shown in simulation and practice that the performance of the system can be transposed to initially unknown non-convex three dimensional environments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Royan, Jérôme. „Visualisation interactive de scènes urbaines vastes et complexes à travers un réseau“. Rennes 1, 2005. http://www.theses.fr/2005REN1S013.

Der volle Inhalt der Quelle
Annotation:
Ces travaux de thèse portent sur la visualisation de scènes urbaines tridimensionnellestrès vastes et très complexes à travers un réseau. L'objectif majeur est d'obtenir une eprésentation adaptée à la transmission et visualisation d'un ensemble de bâtiments constituant un modèle 3D urbain. Cette représentation multi-résolution des bâtimentsd'une ville, appelée PBTree, se base sur une représentation 2D1/2 modélisant les bâtimentsà l'aide de prismes (représentation 2D1/2 issue des méthodes fiables et robustes de modélisation non-assitée de villes). Cette représentation multi-résolution a été conçue pour optimiser la transmission (compression, progressivité) et la visualisation (niveaux de détails, adaptabilité au point de vue) de modèles urbains. La multi-résolution est très bien adaptée au survol des villes. Cependant, une solution est proposée dans le cas d'une navigation au niveau du sol, et est basée sur un calcul de visibilité permettant de sélectionner le niveau de résolution transmis et visualisé
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Stratmann, Dirk. „Nouvelles méthodes pour l'attribution de spectres RMN de protéines de structure tridimensionnelle connue“. Paris 6, 2008. http://www.theses.fr/2008PA066667.

Der volle Inhalt der Quelle
Annotation:
Une condition préalable pour toute étude d’une protéine par RMN est l’attribution des résonances du spectre 15N-1H HSQC à leurs atomes correspondants du squelette peptidique. Un nouveau type de stratégie d’attribution exploite l’information donnée par une structure 3D déjà disponible de la même protéine ou d’une protéine homologue. Jusqu’à présent, les algorithmes, développés autour de cette stratégie, ont deux inconvénients majeurs : ils ne peuvent pas garantir l’exactitude de l’attribution et ils ne sont pas applicables à des protéines de grande taille. Dans un premier temps, il est montré que l’utilisation des couplages dipolaires résiduels (RDC) pour l’attribution basée sur la structure peut poser des problèmes, notamment liée à l’estimation du tenseur d’alignement. Une nouvelle méthode d’attribution basée sur la structure, nommée NOEnet, est présentée ici. NOEnet n’est pas basée sur les RDCs mais sur les effets Overhauser nucléaire (NOEs). RDCs, déplacements chimiques (CS) et presque tout type de donnée peuvent être inclus dans NOEnet grâce à une approche générale de filtre. NOEnet exploite le réseau de contraintes NOE HN-HN non ambiguës en réalisant une recherche exhaustive de tous les appariements possibles entre le réseau des NOEs et le réseau de la structure 3D. Son algorithme efficace de recherche complète garantit l’exactitude du résultat d’attribution. NOEnet a été testé avec succès sur plusieurs protéines jusqu’à 28 kDa, en utilisant uniquement des données NOE ou une combinaison de données NOE, RDC et CS
A prerequisite for any protein study by NMR is the assignment of the resonances from the 15N-1H HSQC spectrum to their corresponding atoms of the protein backbone. A new type of assignment strategy exploits the information given by an already available 3D structure of the same or a homologous protein. Up to now, the algorithms that have been developed around this strategy have two important drawbacks: they cannot guarantee the accuracy of the assignment and they are not applicable to large proteins. First is shown that the use of residual dipolar couplings (RDC) for the structure based assignment can be problematic, especially the estimation of the alignment tensor is difficult. A novel structure based assignment approach, called NOEnet, is presented here. NOEnet is not based on RDCs but on Nuclear Overhauser Effects (NOEs). RDCs, chemical shifts (CS) and almost any kind of data can be included in NOEnet through a general filter approach. NOEnet exploits the network property of unambiguous HN-HN NOE constraints to realize an exhaustive search of all matching possibilities of the NOE network on the structural one. Its efficient complete search algorithm ensures the correctness of the assignment results. NOEnet has been successfully tested on several proteins up to 28 kDa, using only NOE data or a combination of NOE, RDC and CS data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Meribout, Mahmoud. „Conception en vue d'une réalisation d'un système de vision tridimensionnel“. Compiègne, 1995. http://www.theses.fr/1995COMPD776.

Der volle Inhalt der Quelle
Annotation:
Le développement de la technologie VLSIi a considérablement amélioré la puissance de calcul des machines inintelligentes, permettant le traitement des applications complexes avec un faible coût. Néanmoins, malgré les grands succès connus dans beaucoup de domaines, les problèmes de vision sont souvent mal définis, mal posés ou consomment un temps de calcul non négligeable. Ceci a pour effet de contraindre les concepteurs de limiter le domaine d'application : solution pouvant être inefficace dans le cas ou de nouveaux algorithmes plus performants apparaissent. Le but des travaux présentés dans le cadre de cette thèse consiste à étudier et à mettre en oeuvre un système de perception réalisant plusieurs algorithmes de vision, tels que la détection des contours et l'estimation de mouvements en temps réel, compression-décompression rapide des images, etc. La robustesse de notre système de vision réside en sa flexibilité, sa reconfigurabilité, son extensibilité, et sa modularité. Le principe de conception de notre architecture est basé selon les besoins en termes de communication, de puissance de calcul, de flux de données d'entrées et de stockage pour chacun des trois niveaux de traitement. A cet effet, un bus image matériel a été mis au point reliant toutes les sources possibles d'images que sont : - Un module d'acquisition et de compression-décompression vidéo en norme JPEG, - Un module de traitement bas niveau temps réel, reconfigurable dynamiquement et réalisant des opérateurs de traitement d'images câblés, en téléchargeant les programmes compilés en VHDL sur le composant FPGA, - Un module de traitement haut niveau et niveau intermédiaire base sur le TMS320c40. L'avantage de notre architecture est sa reconfigurabilité pour les trois niveaux de traitement : un module à base de composants FPGA pour le traitement bas niveau, et un réseau d'interconnexion dynamiquement reconfigurable pour le traitement haut niveau et niveau intermédiaire. Ceci nous permet de considérer notre système de vision comme une plate forme pour tester les performances de nouveaux algorithmes de traitement d'image. Comme exemple d'application, un algorithme de reconstruction 3D des objets polyédriques, basé sur la méthode géométrique a été implémenté. Les résultats obtenus montrent la puissance de l'architecture proposée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Faessel, Matthieu. „Modélisation 3D de réseaux fibreux : un outil pour l'étude des interactions microstructure-propriétés de panneaux de fibres“. Bordeaux 1, 2003. http://www.theses.fr/2003BOR12781.

Der volle Inhalt der Quelle
Annotation:
Le but de ce travail de recherche est de proposer des outils de représentation de structures fibreuses aléatoires par des modèles probabiliste, en s'appuyant sur l'analyse de milieux réels observés en microtomographie X. Compte tenu de la complexité des matériaux analysés, la reconstruction tridimensionnelle d'un milieu "équivalent", du point de vue de ses propriétés morphologiques (porosité, connectivité), constitue une étape fondamentale. Cette démarche conditionne la possibilité de généraliser à d'autres microstructures fibreuses des interactions entre caractéristiques morphologiques et propriétés physiques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

BOŁDAK, Cezary. „Extraction et caractérisation 3D des réseaux vasculaires en imagerie scanner multibarette : application aux réseaux des membres inférieurs et des coronaires“. Rennes 1, 2003. http://www.theses.fr/2004REN10092.

Der volle Inhalt der Quelle
Annotation:
Une approche hybride pour la segmentation des réseaux vasculaires a été développée qui combine une méthode de suivi de la structure, exploitant une technique de moments géométriques 3D, pour l'estimation des paramètres du vaisseau (position de l'axe central, diamètre et orientation locale en tout point de l'axe central) avec une technique de modèle déformable ("level set") pour affiner la détection des calcifiactions pariétales et l'extraction du contour endoluminal en présence de pathologies. Ce travail a été réalisé dans le cadre d'un partenariat avec la société Siemens et les services de radiologie et cardiologie interventionnelles du CHU de Rennes. Il a fait l'objet de deux évaluations respectivement sur les réseaux des membres inférieurs et sur les coronaires à partir de bases de données acquises sur un système scanner multibarette (matériel Siemens, Somaton Plus 4 Volume Zoom).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Momplot, Adrien. „Modélisation tridimensionnelle des écoulements en réseau d’assainissement : Evaluation des modèles RANS à travers l’étude des écoulements au droit d’ouvrages spéciaux“. Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0125.

Der volle Inhalt der Quelle
Annotation:
La modélisation à l’aide de l’approche RANS (Reynolds Averaged Navier Stokes) a été menée en trois dimensions, en considérant les régimes permanent et non permanent, dans le but de simuler les écoulements au niveau des jonctions, bifurcations et déversoirs d’orage. A travers ces trois exemples d’étude, plusieurs stratégies de modélisation (différentes combinaison lois de paroi/modèles de turbulence, différents algorithmes de couplage pression/vitesse, différents schémas de discrétisation spatiale, différentes conditions aux limites, différents types et tailles de maille, etc.) ont été testées et évaluées à l’aide de plusieurs indicateurs de performance (de type RMS –Root Mean Square) en s’appuyant sur les données de vitesses (vitesses moyennes in situ et champs de vitesses obtenus par PIV en laboratoire), hauteurs d’eau, débits (répartition de débits en bifurcation en laboratoire ou débits déversés in situ). Les résultats obtenus sont transposables aux autres cas de singularités et ouvrages spéciaux rencontrés en réseau d’assainissement et montrent que : i) les résultats des simulations 3D sont sensibles à la rugosité, aux conditions limites de hauteur et de vitesse ; ii) dans les trois cas d’étude, les schémas de discrétisation du second ordre et l’algorithme de couplage pression/vitesse PISO sont appropriés ; ii) la loi de paroi scalable couplée aux modèles de turbulence de type k-ε pour le cas des jonctions (avec un débit latéral inférieur ou égal au débit principal) ou des déversoirs semblent convenir, tandis que le modèle de turbulence RSM associé à la loi de paroi enhanced ou scalable permet de mieux représenter les écoulements à travers les bifurcations ou au niveau des jonctions lorsque le débit latéral est dominant. Sur la base de ces résultats, une méthodologie de modélisation plus générale définie en six étapes et fondée sur le guide proposée par Jakeman et al. (2006) a été mise au point. La méthodologie ainsi définie a été utilisée pour i) améliorer l’instrumentation du déversoir OTHU (Observatoire de Terrain en Hydrologie Urbaine) situé à Ecully, à partir de la simulation de sa courbe de fonctionnement et en fournissant les incertitudes sur les débits déversés obtenus ; ii) simuler l’implémentation des capteurs débitmétriques à l’aval d’une jonction. Elle a permis de concevoir et de dimensionner un nouveau dispositif de maîtrise des flux d’eau et de polluants déversés (technologie DSM – dispositif de surveillance et de maîtrise des flux déversés au milieu naturel). Ce dispositif a fait l’objet d’un dépôt de brevet international. Enfin, la mise en œuvre de cette méthodologie a été à l’origine de la découverte d’une nouvelle structure d’écoulement dans la branche latérale d’une bifurcation à 90°. L’analyse des résultats des simulations des écoulements mettant en évidence cette nouvelle structure a montré qu’il était possible de prédire l’apparition de cette dernière à partir du rapport d’aspect et du nombre de Froude
The understanding of sewer flows behaviour is a key component for better urban drainage monitoring and management. However, these flows are conveyed across singularities (such as bends, drops, deviations, etc.) and special structures (combined sewer overflows –CSOs–, channels junction, dividing flow structures, etc.). These singularities and specific structures exhibit complex geometries, leading to open channel turbulent, three-dimensional and multiphase (pollutants and storm and sewer waters) flows. Using three-dimensional CFD (Computational Fluid Dynamics) platform allows a better understanding of mechanisms of contaminants transport through these structures and singularities, leading to a better sewer monitoring. In this thesis, 3D-RANS (Reynolds Averaged Navier Stokes) modelling approach under steady-state conditions is used in order to study flows within CSOs, junctions and bifurcations. Through these three structures, several modelling strategies (wall law/turbulence model combination, velocity/pressure coupling algorithm, spatial discretisation schemes, boundary conditions, computational mesh –shape and size of cells–, etc.) are tested and evaluated thanks to performance indicators (such as RMS –Root Mean Square– indicators) based on velocities (in situ mean velocities and PIV velocity fields obtained in laboratory), water depths and discharge (discharge repartition for bifurcation in laboratory or in situ overflow discharge, for CSOs). Results deriving from these tests are transposable to other singularities or special structures encountered in sewer network and suggest that: i) simulated CFD results are sensitive to the roughness coefficient; ii) for the three studied structures, second-order discretisation schemes and SIMPLE or PISO velocity/pressure coupling algorithm are appropriate; iii) scalable wall function associated to the group of k-ε turbulence model for junction flows (with a lateral inflow lower or equal to the main inflow) or for CSOs is appropriate, whereas RSM turbulence model associated to enhanced wall function allows a better representation of bifurcation flows or junctions flows when the lateral inflow is greater than the main inflow. Based on these results and on Jakeman et al. (2006) guideline, a six steps-methodology focused on the using of RANS approach modelling has been proposed. This six steps-methodology is used in order to i) enhance the monitoring of an OTHU (Observatoire de Terrain en Hydrologie Urbaine) CSO located at Ecully accounting for uncertainties on overflow discharge values ;ii) simulate the performance of flowmeters downstream of a junction, defining the best location for these sensors. This methodology is used to design the new overflow discharge measurement device. This device is an international patent. Finally, the application of the methodology led to point out a new flow structure, occurring in the downstream lateral branch of a 90° bifurcation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Ruichek, Yassine. „Stéréovision linéaire par réseau de neurones de Hopfield : application à la détection d'obstacles à l'avant des véhicules routiers“. Lille 1, 1997. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1997/50376-1997-43.pdf.

Der volle Inhalt der Quelle
Annotation:
Bien que la stereovision passive soit une approche tres populaire pour la reconstruction 3-d, son utilisation pour une application temps-reel, telle que la detection d'obstacles a l'avant des vehicules routiers, est difficile. Cette limitation est essentiellement liee a l'utilisation de cameras matricielles qui fournissent des images contenant une quantite d'informations tres importante. Pour palier cette limitation, certains auteurs proposent de remplacer les cameras matricielles par les cameras lineaires. En effet, ce type de capteur permet de reduire la quantite d'informations a traiter, tout en ayant une resolution horizontale bien superieure a celle des cameras matricielles. Dans ce travail, nous proposons une approche connexionniste pour resoudre le probleme de l'appariement des indices visuels associes aux memes objets physiques presents dans une scene observee par un couple stereoscopique de cameras lineaires. Dans un premier temps, le probleme est ramene a un probleme d'optimisation ou une fonction de cout, construite a partir des contraintes du probleme, doit etre minimisee. Un reseau de neurones de hopfield est ensuite mis au point pour assurer le processus de minimisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Dussault, Marc-André. „Développement d'un dispositif d'extrusion tridimensionnelle de sucre vitrifié pour la production de réseaux fluidiques complexes par moulage rapide“. Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27252.

Der volle Inhalt der Quelle
Annotation:
L’objectif du vaste projet de recherche dans lequel s’inscrit ce mémoire est de guérir le diabète de type 1 en fabriquant un pancréas bioartificiel vascularisé contenant des cellules bêta (i.e. les cellules sécrétant l’insuline). Ce dispositif permettrait de rendre aux personnes atteintes par le diabète de type 1 la capacité de sécréter par elles-mêmes de l’insuline et de réguler leur glycémie. La vascularisation est actuellement un enjeu de taille dans le domaine du génie tissulaire. La plupart des tissus incorporant des cellules générées par le génie tissulaire sont actuellement fortement limités en épaisseur faute d’être vascularisés adéquatement. Pour les tissus dont l’épaisseur dépasse 400 μm, la vascularisation est nécessaire à la survie de la plupart des cellules qui autrement souffriraient d’hypoxie, les empêchant ainsi d’accomplir leurs fonctions [1]. Ce mémoire présente le développement et la mise en service d’un dispositif d’extrusion tridimensionnelle de sucre vitrifié pour la vascularisation d’un pancréas bioartificiel. Ce dispositif a été développé au laboratoire de recherche sur les procédés d’impression 3D ainsi qu’au bureau de design du département de génie mécanique de l’Université Laval. Grâce à cette technique d’impression 3D novatrice et à la caractérisation du procédé, il est maintenant possible de produire rapidement et avec précision des structures temporaires en sucre vitrifié pour la fabrication de réseaux vasculaires tridimensionnels complexes. Les structures temporaires peuvent, après leur production, être utilisées pour réaliser le moulage rapide de constructions vascularisées avec des matériaux tels que du polydiméthylsiloxane (PDMS) ou des hydrogels chargés de cellules biologiques. De par la nature du matériel utilisé, les moules temporaires peuvent être facilement et rapidement dissous dans une solution aqueuse et laisser place à un réseau de canaux creux sans créer de rejets toxiques, ce qui représente un avantage majeur dans un contexte de bio-ingénierie.
The overall goal of this broad research project, within which this master project took place, is to cure type 1 diabetes. We aim to produce a vascularized bioartificial pancreas that would be made of beta cells embedded in a hydrogel (i.e. insulin secreting cells). This organ would restore to type 1 diabetics the self-capacity to secrete insulin, thus to control in real time their glycaemia. Vascularization is currently a major issue in the field of tissue engineering. Most tissues produced by TE are limited in thickness due to the lack of adequate vasculature. To engineer a tissue thicker than 400 μm, vascularization is mandatory for most of the cells to survive [1]. The lack of adequate vascularization leads to hypoxia and hinders cells to fulfill their functions. This thesis presents the development and the commissioning of a 3D sugar glass extrusion apparatus for the vascularization of a bioartificial pancreas. This apparatus was developed at the “laboratoire de recherche sur les procédés d’impression 3D” and at the “bureau de design” in the mechanical engineering department of Université Laval. With this pioneering 3D printing technology, it is now possible to rapidly and precisely produce temporary sugar glass template that can then be used to produce complex 3D vascular networks. After the printing process, the temporary template is used as a mold for the rapid casting of vascularized constructs made with materials such as polydimethylsiloxane (PDMS) or cellladen hydrogels. Due to the nature of the material used, the temporary lattices can be dissolved in an aqueous medium without releasing any cytotoxic byproducts and in a fast and easy fashion. This feature is a major advantage in the context of bioengineering.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Charnoz, Arnaud. „Recalage d'organes intra-patient à partir de l'étude de leur réseau vasculaire : Application au foie“. Université Louis Pasteur (Strasbourg) (1971-2008), 2007. https://publication-theses.unistra.fr/public/theses_doctorat/2007/CHARNOZ_Arnaud_2007.pdf.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose une nouvelle méthode automatique pour estimer la déformation subie par un organe vascularisé entre deux images scanner. Cette méthode analyse les réseaux vasculaires internes an de recaler au mieux ces images. Ainsi, elle apporte une aide au diagnostic en facilitant le suivi individuel des tumeurs et une aide à la planication en créant des modèles de réseaux vasculaires plus détaillés. La méthode se décompose en trois grandes étapes. Tout d'abord, les réseaux vasculaires contrastés dans les images scanner sont modélisés par des graphes. Ensuite, un algorithme original d'appariement de graphes met en correspondance les bifurcations communes. Enfin, une transformation est calculée à partir des appariements estimés pour compenser la déformation globale de l'organe. Les nombreuses expérimentations, menées sur nos bases de patients synthétiques et réels, valident l'efficacité et la robustesse de cette nouvelle méthode
This thesis proposes a new automated method to evaluate the deformation of a vascularized organ between two CT-scan images. This method analyses internal vascular networks in order to better register those images. This way, it provides support for the diagnosis by easing individual tumour follow-up as well as for the planning by creating more detailed vascular network models. The method is composed of three major steps. First, contrasted vascular networks in CT-scan images are modelled thanks to graphs. Then, an original graph matching algorithm associates common bifurcations. Finally, a transformation is computed from estimated matchings in order to compensate the overall organ deformation. The many experimentations carried out on our databases of synthetic and real patients validate the efficiency and robustness of this new method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Groueix, Thibault. „Learning 3D Generation and Matching“. Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1024.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de développer des approches d'apprentissage profond pour modéliser et analyser les formes 3D. Les progrès dans ce domaine pourraient démocratiser la création artistique d'actifs 3D, actuellement coûteuse en temps et réservés aux experts du domaine. Nous nous concentrons en particulier sur deux tâches clefs pour la modélisation 3D : la reconstruction à vue unique et la mise en correspondance de formes.Une méthode de reconstruction à vue unique (SVR) prend comme entrée une seule image et prédit le monde physique qui a produit cette image. SVR remonte aux premiers jours de la vision par ordinateur. Étant donné que plusieurs configurations de formes, de textures et d'éclairage peuvent expliquer la même image il faut formuler des hypothèses sur la distribution d'images et de formes 3D pour résoudre l’ambiguïté. Dans cette thèse, nous apprenons ces hypothèses à partir de jeux de données à grande échelle au lieu de les concevoir manuellement. Les méthodes d'apprentissage nous permettent d'effectuer une reconstruction complète et réaliste de l'objet, y compris des parties qui ne sont pas visibles dans l'image d'entrée.La mise en correspondance de forme vise à établir des correspondances entre des objets 3D. Résoudre cette tâche nécessite à la fois une compréhension locale et globale des formes 3D qui est difficile à obtenir explicitement. Au lieu de cela, nous entraînons des réseaux neuronaux sur de grands jeux de données pour capturer ces connaissances implicitement.La mise en correspondance de forme a de nombreuses applications en modélisation 3D telles que le transfert d'attribut, le gréement automatique pour l'animation ou l'édition de maillage.La première contribution technique de cette thèse est une nouvelle représentation paramétrique des surfaces 3D modélisées par les réseaux neuronaux. Le choix de la représentation des données est un aspect critique de tout algorithme de reconstruction 3D. Jusqu'à récemment, la plupart des approches profondes en génération 3D prédisaient des grilles volumétriques de voxel ou des nuages de points, qui sont des représentations discrètes. Au lieu de cela, nous présentons une approche qui prédit une déformation paramétrique de surface, c'est-à-dire une déformation d'un modèle source vers une forme objectif. Pour démontrer les avantages ses avantages, nous utilisons notre nouvelle représentation pour la reconstruction à vue unique. Notre approche, baptisée AtlasNet, est la première approche profonde de reconstruction à vue unique capable de reconstruire des maillages à partir d'images sans s’appuyer sur un post-traitement indépendant, et peut le faire à une résolution arbitraire sans problèmes de mémoire. Une analyse plus détaillée d’AtlasNet révèle qu'il généralise également mieux que les autres approches aux catégories sur lesquelles il n'a pas été entraîné.Notre deuxième contribution est une nouvelle approche de correspondance de forme purement basée sur la reconstruction par des déformations. Nous montrons que la qualité des reconstructions de forme est essentielle pour obtenir de bonnes correspondances, et donc introduisons une optimisation au moment de l'inférence pour affiner les déformations apprises. Pour les humains et d'autres catégories de formes déformables déviant par une quasi-isométrie, notre approche peut tirer parti d'un modèle et d'une régularisation isométrique des déformations. Comme les catégories présentant des variations non isométriques, telles que les chaises, n'ont pas de modèle clair, nous apprenons à déformer n'importe quelle forme en n'importe quelle autre et tirons parti des contraintes de cohérence du cycle pour apprendre des correspondances qui respectent la sémantique des objets. Notre approche de correspondance de forme fonctionne directement sur les nuages de points, est robuste à de nombreux types de perturbations, et surpasse l'état de l'art de 15% sur des scans d'humains réels
The goal of this thesis is to develop deep learning approaches to model and analyse 3D shapes. Progress in this field could democratize artistic creation of 3D assets which currently requires time and expert skills with technical software.We focus on the design of deep learning solutions for two particular tasks, key to many 3D modeling applications: single-view reconstruction and shape matching.A single-view reconstruction (SVR) method takes as input a single image and predicts the physical world which produced that image. SVR dates back to the early days of computer vision. In particular, in the 1960s, Lawrence G. Roberts proposed to align simple 3D primitives to the input image under the assumption that the physical world is made of cuboids. Another approach proposed by Berthold Horn in the 1970s is to decompose the input image in intrinsic images and use those to predict the depth of every input pixel.Since several configurations of shapes, texture and illumination can explain the same image, both approaches need to form assumptions on the distribution of images and 3D shapes to resolve the ambiguity. In this thesis, we learn these assumptions from large-scale datasets instead of manually designing them. Learning allows us to perform complete object reconstruction, including parts which are not visible in the input image.Shape matching aims at finding correspondences between 3D objects. Solving this task requires both a local and global understanding of 3D shapes which is hard to achieve explicitly. Instead we train neural networks on large-scale datasets to solve this task and capture this knowledge implicitly through their internal parameters.Shape matching supports many 3D modeling applications such as attribute transfer, automatic rigging for animation, or mesh editing.The first technical contribution of this thesis is a new parametric representation of 3D surfaces modeled by neural networks.The choice of data representation is a critical aspect of any 3D reconstruction algorithm. Until recently, most of the approaches in deep 3D model generation were predicting volumetric voxel grids or point clouds, which are discrete representations. Instead, we present an alternative approach that predicts a parametric surface deformation ie a mapping from a template to a target geometry. To demonstrate the benefits of such a representation, we train a deep encoder-decoder for single-view reconstruction using our new representation. Our approach, dubbed AtlasNet, is the first deep single-view reconstruction approach able to reconstruct meshes from images without relying on an independent post-processing, and can do it at arbitrary resolution without memory issues. A more detailed analysis of AtlasNet reveals it also generalizes better to categories it has not been trained on than other deep 3D generation approaches.Our second main contribution is a novel shape matching approach purely based on reconstruction via deformations. We show that the quality of the shape reconstructions is critical to obtain good correspondences, and therefore introduce a test-time optimization scheme to refine the learned deformations. For humans and other deformable shape categories deviating by a near-isometry, our approach can leverage a shape template and isometric regularization of the surface deformations. As category exhibiting non-isometric variations, such as chairs, do not have a clear template, we learn how to deform any shape into any other and leverage cycle-consistency constraints to learn meaningful correspondences. Our reconstruction-for-matching strategy operates directly on point clouds, is robust to many types of perturbations, and outperforms the state of the art by 15% on dense matching of real human scans
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Lelièvre, Edwige. „Des jeux de rôle en ligne tridimensionnels aux jeux à réalité alternée : expérience esthétique, création et expérimentation“. Paris 8, 2012. http://octaviana.fr/document/181885379#?c=0&m=0&s=0&cv=0.

Der volle Inhalt der Quelle
Annotation:
Le jeu vidéo est devenu un sujet d'étude digne d'intérêt dans le domaine de l'art numérique. Cependant, si ce média est de mieux en mieux connu en tant qu'objet plastique, les études portant sur la pratique des joueurs restent rares. Pourtant, l'expérience ludique semble particulièrement riche. Les jeux de rôle en ligne tridimensionnels à univers persistant, en particulier, semblent proposer des expériences uniques compte-tenu de l'investissement qu'ils génèrent chez les joueurs, dont certains passent plusieurs heures par jour, pendant des années, à jouer au même jeu. Ainsi, dans les jeux de rôle en ligne, la relation aux jeux, mais aussi aux joueurs, se construit sur la durée, autour d'un univers partagé et de manière active. Les jeux de rôle en ligne, réalisés grâce à des images de synthèse interactives, semblent poser deux questions au domaine de l'art. On peut tout d'abord se demander s'ils permettent des expériences esthétiques et quelles en seraient les caractéristiques. Il faut questionner en quoi ces jeux incitent les joueurs à la création. Il faut également s'interroger sur leur potentiel comme support de création, pour des auteurs. En nous appuyant, d'une part sur l'analyse des créations et de l'expérience esthétique des joueurs, d'autre part sur la réalisation d'un jeu de rôle en ligne expérimental et d'un jeu à réalité alterné hybridé à des systèmes de jeux de rôle en ligne, nous proposons un nouveau regard sur ce type de jeu. Nos travaux de recherche visent ainsi à faire connaître l'aspect créatif de ces jeux, les expériences esthétiques qu'ils proposent et à rendre accessible à des auteurs ce support innovant
Video games have become a serious subject of study in digital arts. However, if this media has become more and more recognized as a piece of art, studies on his practice are still rare. Yet, the gaming experience seems really substantial. Particularly 3D online roleplaying game seem to propose a unique experience given the fact they generate a huge investment from the players. Some players can spend several hours a day, during several years on the same game. Thus, in online roleplaying games, relation between games and players is built like a long term relationship. Online roleplaying games created with interactive computer graphics seem to ask art field two questions. Do they make possible aesthetic experiences? And what can be those characteristics? We need to find in what these games encourage players to create, and what is their potential as a creation form for authors. We based our researchs on the analysis of player’s aesthetic experiment and creations, on the creation of an experimental online roleplaying game and on the creation of an alternate reality game crossed with a online roleplaying game systems. We will offer a new perspective on this type of game. Our researchs is aimed at showing the creative aspects of those games and the aesthetic experience they can provide. Our last goal is to help authors access this innovating support
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Macé, Laëtitia. „Caractérisation et modélisation numériques tridimensionnelles des réseaux de fractures naturelles : application au cas des réservoirs“. Vandoeuvre-les-Nancy, INPL, 2006. http://docnum.univ-lorraine.fr/public/INPL/2006_MACE_L.pdf.

Der volle Inhalt der Quelle
Annotation:
Les fractures naturelles ont un impact considérable au sein d'un réservoir, que ce soit dans les domaines de l'ingénierie pétrolière et minière, ou de l'hydrogéologie. En effet, qu'elles soient conductrices ou barrières, elles contrôlent généralement les écoulements ainsi que les capacités de stockage des réservoirs. Ces travaux de thèse s'inscrivent au sein de la chaîne de modélisation numérique d'un réservoir naturellement fracturé, leurs objectifs étant de caractériser, puis de modéliser les fractures en trois dimensions. Les méthodologies proposées abordent successivement les premières étapes logiques de cette modélisation: 1. La caractérisation des fractures naturelles à partir de données structurales: les données tensorielles de déformation (résultant d'une modélisation génétique ou inverse) sont intégrées au sein d'une approche tridimensionnelle géomécanique et probabiliste afin de déterminer de nouveaux indicateurs structuraux de fracturation, notamment concernant son intensité et son orientation. La formulation mathématique adoptée prend également en compte les incertitudes sur les propriétés pétrophysiques des roches. 2. La modélisation numérique d'un réseau de fractures: une approche tridimensionnelle par réseau de fractures discrètes a été développée du fait de sa flexibilité et de son réalisme. Une simulation numérique stochastique offre la possibilité de modéliser tout type de réseau de fractures respectant des données de terrains et des contraintes géologiques prédéfinies (confinement aux couches, chronologie relative des fractures, etc. ). 3. L'analyse de la connectivité de réseaux de fractures discrètes: une structure de type graphe reflète les relations de connectivité entre les fractures discrètes d'un réseau en trois dimensions. Différentes méthodologies d'analyse qualitative et quantitative de cette connectivité sont ensuite exposées, leur but étant d'améliorer la compréhension de l'impact de la fracturation sur les écoulements fluides
Natural fractures have a dramatic impact on reservoirs either in fields such as mining and petroleum engineering or hydrogeology. Indeed, acting as conductors or barriers, they often control the flow and also the storage capacity in such reservoirs. The presented work is enclosed in the numerical modelling line of naturally fractured reservoirs, addressing the specific issues of characterizing and modelling fractures in three dimensions. The proposed approaches successively deal with the first logical stages of this modelling: 1. Natural fractures characterization from structural data: a geomechanical and probabilistic approach in three dimensions integrates tensorial strain data (obtained from forward or backward modelling techniques) in order to compute new structural drivers of fracturing intensity and orientation. The proposed mathematical framework also account for petrophysical rock property uncertainties. 2. Numerical fracture network modelling: a discrete fracture network modelling approach in three dimensions was developed because of its flexibility and its realism. A numerical stochastic simulation enables to model any kind of fracture network while honouring field data and predefined geological constraints (such as strata confinement, relative chronology between several fracture systems, etc. ). 3. Connectivity analysis of discrete fracture networks: a graph structure highlights the connectivity relationships between the discrete fractures of a three-dimensional network. Several connectivity analysis methods, qualitative and quantitative, are then outlined with an emphasis on their improvement on understanding of the fracturing impact on fluid flows
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Massone, Quentin. „Numérisation 3D en environnement aquatique : application aux réseaux karstiques“. Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS032.

Der volle Inhalt der Quelle
Annotation:
Les aquifères karstiques, formations géologiques principalement calcaires, représentent un enjeu considérable dans le contexte actuel où de nombreuses régions du monde sont en stress hydrique en raison du changement climatique. Bien que ces aquifères soient l'une des principales sources d'eau douce du monde, ils sont encore sous-exploités à cause du manque de connaissances précises de leur géomorphologie. Les explorer pour collecter des données est une tâche complexe car les réseaux formés dans ce type d'environnement sont très étendus. De plus, l'envoi de plongeurs n'est pas idéal car ils sont limitées en profondeur et les risques sont importants en raison du confinement et de sa structure imprévisible. À terme, l'envoi de véhicules sous-marins autonomes permettrait d'explorer davantage les galeries en toute sécurité tout en acquérant les données provenant de capteurs. Cependant, l'utilisation de tels véhicules dans un milieu aussi imprévisible sans supervision humaine présente encore de nombreux défis techniques et scientifiques.L'objectif de cette thèse est donc de proposer des solutions de vision 3D adaptées aux réseaux de galeries présents dans ce type d'environnement. Nous proposons ainsi deux approches basées sur l'utilisation d'une caméra et d'un projecteur de forme conique.La première, prospective, est une méthode de stéréovision active utilisant un système composé de deux caméras et du projecteur, a été validée en simulation via l'utilisation d'un modèle de galerie.La seconde, qui est le coeur de ce mémoire, est une méthode de reconstruction 3D par lumière structurée utilisant la combinaison d'une caméra et du projecteur de forme conique.Après extraction des contours, on reconstruit en 3D les points de ces contours via la contrainte géométrique qu'il y a entre le cône et la caméra. Cette contrainte géométrique s'exprime via les paramètres du cône du projecteur dont l'estimation est faite via un étalonnage spécifique.Différentes expérimentations ont été réalisées pour valider cette approche originale. La première est réalisée en laboratoire où un contour lumineux projeté sur 2 murs orthogonaux est reconstruit en 3D puis vérifié via des tests de coplanarité et d'angulation entre ces 2 murs témoins. La seconde est réalisée dans un aqueduc désaffecté (sans eau) ayant l'avantage de reproduire un environnement proche de celui d'un aquifère karstique : étroit, sans lumière et surtout sans eau pour continuer notre évaluation. La validation des résultats est faite sur des tests de coplanarité des parois de l'aqueduc et sur l'estimation de la distance connue entre ces parois. La troisième est réalisée en piscine, première étape avant le test ultime en milieu karstique. La validation des résultats est réalisée également par des tests de coplanarité des points sur le sol et de l'estimation de la forme cylindrique de la piscine et de son rayon
Karst aquifers, mainly limestone geological formations, represent a considerable challenge in the current context where many parts of the world are under water stress due to climate change. Although these aquifers are one of the world’s main freshwater sources, they are still underexploited due to a lack of precise knowledge of their geomorphology. Exploring them to collect data is a complex task because the networks formed in this type of environment are very extensive. In addition, sending divers is not ideal as they are limited in depth and the risks are significant due to the confinement and unpredictable structure. Eventually, the shipment of autonomous underwater vehicles would allow further exploration of the tunnels safely while acquiring data from sensors. However, using such vehicles in such an unpredictable environment without human supervision still presents many technical and scientific challenges.The objective of this thesis is therefore to propose 3D vision solutions adapted to gallery networks present in this type of environment. We thus propose two approaches based on the use of camera and a projector of conical shape.The first, prospective, is an active stereovision method using a system composed of two cameras and the projector, has been validated in simulation via the use of a gallery model.The second, which is the heart of this memory, is a structured light 3D reconstruction method using the combination of a camera and a cone-shaped projector.After extracting the contours, the points of these contours are reconstructed in 3D using the geometric constraint between the cone and the camera. This geometric constraint is expressed via the parameters of the headlamp cone, the estimation of which is made via a specific calibration.Various experiments have been carried out to validate this original approach. The first is carried out in a laboratory where a luminous contour projected on two orthogonal walls is reconstructed in 3D and then verified via tests of coplanarity and angulation between these two control walls. The second is carried out in an abandoned aqueduct (without water) having the advantage of reproducing an environment close to that of a karst aquifer: narrow, without light and especially without water to continue our assessment. The validation of the results is done on tests of coplanarity of the walls of the aqueduct and on the estimation of the known distance between these walls. The third is done in the pool, the first step before the final test in karstic environment. The validation of the results is also carried out by tests of the coplanarity of the points on the ground and the estimation of the cylindrical shape of the pool and its radius
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Verscheure, Leslie. „Description symbolique d’une arborescence vasculaire : application au réseau vasculaire cérébral“. Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10090/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la description symbolique d’arborescences vasculaires issues d’images 3D multimodales. Ce travail vise à fournir un cadre méthodologique global pour l’analyse de telles structures et plus particulièrement pour l’arbre vasculaire cérébral. Le domaine d’application clinique visé est la neurochirurgie, notamment pour la planification du geste du praticien. Notre principale contribution est le développement d’une méthode de squelettisation 3D, adaptée aux formes tubulaires et judicieuse pour la description symbolique. Nous proposons de baser la méthode de squelettisation sur la construction de l’arbre de des plus courts chemins de Dijkstra. Ainsi, nous extrayons la branche principale qui correspond à la branche la plus longue de l’arbre de Dijkstra, puis, nous détectons de manière itérative chaque branche annexe en conservant les branches de l’arbre de longueur supérieure à un seuil fixé. Puisque notre squelettisation se réalise de manière itérative, nous possédons les informations locales à chacune des branches. De cette manière, la description symbolique est facilitée et consiste alors en un partitionnement du squelette permettant la collecte de ces informations. Les algorithmes ont été implémentés sous la plateforme logicielle du laboratoire, ArtiMed, et évalués sur données simulées et cliniques. L’évaluation des méthodes de squelettisation et de description symbolique a fait l’objet de l’élaboration d’un plan d’expérience spécifique consistant en une comparaison des résultats sur une série de 18 rotations du volume initial
This thesis describes the methodology and the evaluation of a symbolic description method applied on vascular trees from multimodal 3D images. This work aims to supply a global methodological framework for the analysis of such structures and, more particularly, for the cerebral vascular tree. The clinical application field is neurosurgery and particularly neurosurgery planning. Our method is based on the application of the minimum cost-spanning tree using Dijkstra’s algorithm and seems well appropriate to tubular objects. We skeletonize the structure in two stages: first, we extract the main branch which corresponds to the longest branch of the Dijkstra’s tree, then, we detect iteratively every secondary branch by keeping the branches of the tree which length is superior to a fixed threshold. Since our skeletonization works in an iterative way, we possess local information for each branch. In this way, the symbolic description is facilitated and consists in a partitioning of the skeleton to collect the descriptive characteristics. Algorithms were implemented on the laboratory software platform (ArtiMED) developed in Borland C++ and estimated on digital and clinical data. The evaluation scheme adopts a specific experiment approach consisting in a comparison of the results of a series of 18 rotations of the initial volume
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Dreher, Thomas. „Couplage de la méthode des éléments finis tridimensionnels avec une méthode d'analyse du circuit électrique : application à la modélisation des machines électriques tournantes“. Grenoble INPG, 1994. http://www.theses.fr/1994INPG0101.

Der volle Inhalt der Quelle
Annotation:
Une méthode de simulation du régime transitoire des machines électriques a été développée et mise en oeuvre dans un logiciel éléments finis en trois dimensions. Le couplage direct des équations du circuit électrique avec les équations du champ magnétique est inplémente dans un algorithme pas à pas dans le temps. Le calcul de la distribution du champ magnétique est basé sur la formulation du potentiel vecteur magnétique dans le contexte des éléments finis nodaux. Le circuit électrique est analysé grâce à la méthode des potentiels électriques intégrés dans le temps. Les relations aux bornes des conducteurs bobinés sont utilisées pour le couplage avec les équations du circuit d'alimentation. Un modèle 3D de courants linéiques permet de faciliter le maillage des inducteurs des moteurs électriques. Les différents modules du logiciel de calcul et la structuration des données sont détaillés. Les algorithmes sont validés dans le cas d'une machine universelle et d'un moteur à reluctance variable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Oldfield, Andrew. „Etude du réseau transcriptionnel du gène Xist, acteur principal de l'inactivation du chromosome X“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00815096.

Der volle Inhalt der Quelle
Annotation:
L'inactivation du chromosome X est la réponse trouvée par l'évolution pour pallier à la divergence gonosomique entre mâle (XY) et femelle (XX). Ce phénomène sert donc à mettre les deux sexes sur un pied d'égalité en limitant la quantité de transcrits provenant des chromosomes X présents dans les cellules femelles. Au cours de mon doctorat, j'ai tenté de contribuer à l'étude des mécanismes de régulation transcriptionnelle, notamment l'activation, des deux acteurs principaux de l'inactivation: Xist et Tsix, son transcrit antisens. Pendant ces 4 anne��es, j'ai entrepris de cartographier le profil de fixation de plusieurs protéines le long du locus Xist/Tsix, dans le but de comprendre les mécanismes permettant une surexpression de Xist lors de la disparition de ses facteurs répressifs en cours de différenciation. J'ai donc pu établir un modèle de régulation transcriptionnelle de l'ARN non-codant Xist, impliquant plusieurs protéines connues pour leur rôle dans la régulation transcriptionnelle (CTCF et YY1) aussi bien que dans la formation de structures tridimensionnelles (la cohésine). La pertinence de ce modèle est renforcée par nos études montrant que de nombreux aspects de ce modèle sont conservés à travers l'évolution (notamment chez l'homme). J'ai également pu contribuer à la découverte de nouveaux activateurs de Tsix, certains facteurs de pluripotence se fixant au minisatellite DxPas34 afin de réguler l'élongation de la transcription de l'antisens. Ces résultats apportent donc d'importantes informations concernant les mécanismes régulant la mise en place du phénomène d'inactivation du chromosome X au cours du développement précoce de l'embryon.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Pedrazzani, Mélanie. „Microscopie de fluorescence rapide et optique adaptative pour l'étude fonctionnelle tridimensionnelle in vivo des réseaux neuronaux impliqués dans la mémoire chez Drosophila melanogaster“. Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS226/document.

Der volle Inhalt der Quelle
Annotation:
L’utilisation de techniques de microscopie optique de plus en plus performantes a permis des avancées considérables en neurobiologie. Néanmoins, la population de neurones mise en jeu lors de la formation de la mémoire, ainsi que sa dynamique restent à ce jour très peu connues. L’objectif de la thèse est de développer puis d’utiliser deux types de microscopies originales couplées à des sondes fluorescentes de dernière génération (sondes calciques G-CaMP6f et sonde voltage ArcLight) pour l’étude in vivo des réseaux neuronaux impliqués dans la mémorisation chez la drosophile. Le choix du modèle Drosophila melanogaster pour cette étude neurobiologique est justifié par plusieurs atouts uniques : un cerveau peu volumineux, des capacités d’apprentissage remarquables, la possibilité d’analyser un réseau neuronal dans sa globalité avec une résolution cellulaire et la disponibilité d’outils génétiques très perfectionnés pour son étude. Le premier type de microscopie conçu est celui dite à illumination structurée de type HiLo permettant d'obtenir une coupe optique en profondeur. Nous avons alors étudié le rôle de divers récepteurs, tels que les récepteurs dopaminergiques et gabaergiques dans la transmission de l'information punitive jusqu'aux neurones des corps pédonculés. Nous avons également mis en évidence une non-homogénéité spatiale des neurones de type α/β des corps pédonculés en termes d’excitation et d’inhibition en réponse à une stimulation punitive pour une profondeur d’analyse d'environ 10 à 20 µm. Cette profondeur limite étant imposée par les aberrations, nous avons alors implémenté une boucle d’optique adaptative dans notre microscope. Cela a permis de réaliser des analyses morphologiques jusqu’à 50 µm de profondeur. Le second type de microscopie développé est la microscopie multiconfocale de type « spinning disk » dans le but d’imager l’ensemble des corps cellulaires des neurones des corps pédonculés. Le développement de ce projet n'est pas achevé, ce qui n’a pas encore permis de répondre à des questions biologiques d’intérêt
Cellular and neural network dynamics involved in memory formation remain poorly known despite the progress brought by advanced optical microscopies to neurobiology. The use of Drosophila melanogaster as a model organism constitute one of the most promising approaches due to its unique features: a small brain size, outstanding learning capabilities, very powerful genetic tools and the possibility to analyze a whole neural network with a cellular resolution. To this aim, we implemented two types of optical fluorescence microscopes coupled to cutting-edge fluorescent biosensors, calcic G-CaMP6f and voltage ArcLight probes. We used HiLo structured illumination, a technique able to provide axial optical sectioning, deep in the brain, to study the role of dopaminergic and gabaergic molecular receptors in the transmission of aversive stimulus to mushroom bodies neurons. We also evidenced a non-uniform response of type α/β mushroom bodies neurons under electrical stimulation at 10 to 20 µm depth of analysis. To penetrate deeper in the brain, we added an adaptive optics feedback loop into our microscope in order to overcome aberrations issues. We were then able to rebuild optical sections down to 50 µm depth. The second type of microscopy we developed is a multiconfocal microscope using spinning disk. The aim was to image all the mushroom bodies neurons, at the level of their cell bodies, with a cellular resolution. Since this project is at its beginning, it did not allow us to answer to advanced biological questions yet
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Golebiewski, Brigitte. „Propriétés de réseau et dynamique segmentaire dans les copolymères triséquences : approche RMN“. Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10225.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne l'etude des proprietes de reseau statistique et de la dynamique segmentaire au sein de copolymeres trisequences de type poly(styrene-butadiene-styrene) et poly(styrene-isoprene-styrene). Les proprietes statistiques sont explorees en utilisant la technique de relaxation magnetique nucleaire, qui s'avere etre une technique bien adaptee pour la caracterisation de ces systemes : la mesure effectuee, qui repose sur la detection des mouvements d'isomerisations rotationnelles des unites monomeres, est tres sensible a l'etat de contrainte des chaines, c'est a dire a la presence de points d'ancrage (nodules, enchevetrements) qui induisent une moyenne non nulle des interactions entre spins portes par les noyaux d'hydrogene (interactions dipolaires). Le comportement des systemes est etudie en fonction de la temperature et de la concentration en polymere dans des solvants commun aux deux sequences et selectif pour la phase elastomere. L'analyse des courbes de relaxation a l'aide de fonctions mathematiques permet de determiner la temperature de transition vitreuse des sequences de polystyrene dans les differents copolymeres. Les lois de comportement obtenues mettent en evidence un reseau tridimensionnel forme par les chaines elastomeres : il s'agit d'un reseau d'enchevetrements pieges par les nodules de polystyrene. Des fluctuations de plus large amplitude sont detectees en elevant la temperature ou en diminuant la concentration, traduisant une destructuration progressive des systemes. L'approche rmn, completee par des essais de traction unidirectionnelle, est enfin utilisee pour caracteriser les proprietes de dispersions aqueuses et de films de ces copolymeres. L'ensemble de ces resultats contribue ainsi a une meilleure comprehension de la structure statistique des elastomeres thermoplastiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Oliva, Jean-Michel. „Reconstruction tridimensionnelle d'objets complexes a l'aide de diagrammes de Voronoi simplifiés : application a l'interpolation 3D de sections géologiques“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1995. http://tel.archives-ouvertes.fr/tel-00838782.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons au problème de la reconstruction tridimensionnelle d'objets complexes à partir de coupes sériées. Le premier chapitre du mémoire s'attache à montrer l'intérêt de mettre à la disposition de la modélisation géologique 3D un ensemble d'outils variés et notamment des méthodes d'interpolation et de reconstruction adaptées. Le second chapitre pose la problématique générale de la reconstruction 3D et propose un état de l'art sur les méthodes existantes. Ces deux chapitres composent la première partie du manuscrit. Dans la deuxième partie du mémoire nous proposons une nouvelle méthode de reconstruction 3D qui permet de traiter de manière simple et automatique l'ensemble des problèmes de topologie (trous, branchements multiples, contours isolés). Elle s'appuie sur la construction adaptative de coupes intermédiaires par interpolation entre les sections initiales (chapitre 3). Ce processus utilise un diagramme de Voronoï généralisé simplifié, le réseau bissecteur, comme outil d'interpolation 2D. Nous fournissons une description géométrique complète du réseau bissecteur 2D et nous montrons que sa complexité algébrique est la même que celle des éléments qui permettent de le calculer (segments en 2D, portions de plans en 3D). Nous proposons ensuite deux algorithmes de construction des réseaux bissecteurs interne et externe de formes polygonales éventuellement trouées, dont la complexité en temps est respectivement en O(n2 log n) et O(n2), et la mémoire en O(n2) et O(n) respectivement (chapitre 4). La mise en correspondance des contours est abordée dans le chapitre 5 et nous suggérons quelques solutions pour traiter certains problèmes délicats. La construction du réseau bissecteur permet ensuite d'obte~ir une surface valide de l'objet en guidant de manière directe la triangulation entre les points des différentes sections. Il n'y a donc pas besoin de post-traitements. De plus, l'ajout automatique de portions de coupes intermédiaires dans les zones de changements de topologie ou de variations de morphologie permet une meilleure définition des surfaces générées (chapitre 6). Dans la dernière partie du mémoire nous discutons les résultats obtenus et nous les comparons avec ceux de deux méthodes existantes (chapitre 7).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Neagu, Ionut. „Contribution à la modélisation et à la simulation tridimensionnelle de l’interface fibres/fil“. Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10029/document.

Der volle Inhalt der Quelle
Annotation:
Le besoin fondamental de cette étude est de pouvoir prévoir fidèlement le comportement de la structure finale de fil, basée sur le comportement physique et les propriétés mécaniques sous différentes charges appliquées de l'éventail de structures disponibles. Au delà du caractère scientifique de la prévision, on peut utiliser le même fondement informatisé pour simuler virtuellement les tests et expériences de laboratoire (prédiction de nouveau matériau technique) ou pour générer des animations réalistes à caractères artistiques (design de textile habillement). Par conséquent, modéliser et prédire les différents comportements dans la chaîne de création textile par l’outil informatique fournit un gain de temps et de main d'œuvre considérables. La simulation des essais de laboratoire de produits textiles dans le secteur habillement peut par la suite mener à des produits améliorés, conduire à des taux plus élevés de succès de produit ou réduire la quantité de produits invendus, et entraîner au final une hausse du chiffre d'affaire. Par l'infographie, il est possible de mettre en œuvre une chaîne virtuelle de tests comparatifs de produits utilisant une norme spécifique basée sur des critères de qualité de la simulation obtenue. Le côté novateur de notre travail de recherche est la structure variable-même du diamètre des fibres. Voilà comment, le modèle réel du fil est simulé, par la présentation préliminaire d’une structure 2D qui simule la variation des diamètres du fil et après par la présentation 3D de celle-ci, et le moyen dont la variation est construite, par la répétition de la portion simulée. L’utilisation des courbes d’interpolation représentées par les polynômes Bézier dans le cadre de ce travail, correspond à une nouvelle approche, surtout dans le domaine de la variation par section des fils type laine peignée.Dans ce contexte on a obtenu ainsi un modèle valable du fil, modèle qui est souhaitable à être étendu et validé aussi pour d’autres types de fils. L’objectif principal de ce travail est de compléter les recherches réalisées dans le cadre des applications de modélisation et simulation textile. Par l’utilisation des outils 3D, les entreprises peuvent réduire le temps nécessaire à l’amélioration des produits. Les conséquences immédiates sont la réduction des coûts et des heures de travail. L’augmentation de la puissance et de la vitesse des technologies de calcul, mais aussi la réduction de leur prix, font possible la mise en œuvre des outils virtuels pour améliorer le niveau réaliste et technique de la qualité des simulations
The basic need of this study, would be to predict accurately yarn structure behavior based on the physical behavior and mechanical properties under different loads applied to the range. Beyond the scientific nature of the forecast, we can use the same computer to simulate virtually ground tests and laboratory experiments (prediction of new material technology) or to generate realistic animation art characters (design of textiles and clothing).Therefore, to model and to predict the different behavior in the chain of textile design by the a tool provides a gain of time and considerable manpower. Simulation of laboratory tests for textile products in the clothing industry may eventually lead to improved products, lead to higher rates of successful or reduce the amount of unsold goods, and lead ultimately to an increase in sales. In computer graphics, it is possible to implement a virtual chain of comparative testing using a specific standard based on criteria of quality obtained by simulation. The innovative aspect of our research is the generation of a structure with a variable diameter structure. The real model of the yarn is simulated by presenting a preliminary 2D structure that simulates the change in diameter and after the 3D presentation of it, the repetition of the simulated part is also an important part.The use of interpolation curves represented by Bezier polynomials in the context of this work represents a new approach, especially in the area of natural yarns sectional variation.In this context we obtained a valid model of the yarn in order to extended and validated theother one that are allready developed The main objective of this work is to complement research conducted in the framework of modeling and simulation applications textiles. By using 3D tools, companies can reduce the time required for product improvement. The immediate consequences are the reduction of costs and working hours. The increased power and speed of computing technologies, but also reducing their prices, make possible the implementation of virtual tools to improve the realistic level of quality and technical simulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Perret, Julien. „Modélisation d'environnements urbains virtuels“. Rennes 1, 2006. http://www.theses.fr/2006REN1S164.

Der volle Inhalt der Quelle
Annotation:
Le problème de la modélisation des environnements urbains virtuels reste complexe. Les principaux obstacles à cette modélisation sont liés à la complexité et à la grande quantité de données que les environnements urbains représentent. En effet, le volume et la complexité de ces données posent d'une part des problèmes de stockage et de manipulation, et complexifient, d'autre part, leur visualisation et leur mise à jour. Dans cette thèse, nous proposons une meilleure utilisation des connaissances a priori disponibles sur les environnements urbains. Tout d'abord, nous présentons un système de réécriture original, les FL-systems, comme une nouvelle extension fonctionelle des L-systems, qui sont principalement utilisés pour la modélisation de processus biologiques. Les FL-systems, grâce à l'utilisation de fonctions comme terminaux du langage, permettent une génération en temps-réel d'objets géométriques. Par ailleurs, nous proposons un mécanisme de gestion de cache pour la réécriture des FL-systems pour réutiliser de façon intelligente les modules déjà réécrits. Pour finir, nous définissons une nouvelle méthode de modélisation des environnements urbains à l'aide de hiérarchies d'abstraction, qui permettent de focaliser la modélisation sur chaque niveau de détail de la ville, et d'algorithmes de subdivision de polygones simples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Rittemard, Charlotte. „Identification d’espèce par micro-CT et reconstruction tridimensionnelle : méthodologie et applications aux sciences archéologiques, historiques et forensiques“. Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEP046.

Der volle Inhalt der Quelle
Annotation:
La distinction entre des restes humains et animaux ou entre différentes espèces fauniques représente l’une des étapes fondamentales de l’identification de restes osseux retrouvés en contexte archéologique ou forensique. Cependant, l’état de fragmentation des vestiges osseux rend souvent difficile voire impossible leur identification sur la seule base de l’anatomie ostéologique. L’utilisation de nouveaux critères d’identification et d’une méthode d’analyse plus précise est alors nécessaire. Dans cette perspective, l’analyse de la microstructure osseuse et en particulier du réseau canalaire cortical (RCC) apparaît discriminante car ce réseau présente des différences de structure en fonction des espèces. Cette thèse a pour objectif la définition de paramètres du RCC permettant de déterminer l’origine humaine ou animale de fragments osseux ainsi que l’identification de leur espèce animale d’appartenance. Dans le cadre de cette recherche, nous avons effectué l’analyse qualitative et quantitative en 3D d’acquisitions µCT de diaphyses d’os longs (fémurs et humérus) appartenant à 3 espèces (H. sapiens, S. scrofa et B. taurus). Le test d’identification d’espèce, effectué grâce à la méthode statistique de forêts aléatoires, permet d’obtenir un taux d’identification totale de 88.82%. Les individus humains sont correctement identifiés à 100% contre 86.2% pour S. scrofa et 79.51% pour B. taurus. La longueur moyenne des canaux et la connectivité apparaissent comme les variables les plus discriminantes. L’observation et la quantification du RCC en 3D se révèle une méthode d’analyse non-invasive prometteuse pour la distinction d’espèce, appropriée en cas de spécimens rares ou fragiles. Elle s’applique dans divers domaines scientifiques, en cas de forte fragmentation osseuse. Afin de confirmer et d’améliorer ces premiers résultats, il est toutefois nécessaire de développer cette méthode sur d’autres éléments osseux et d’élargir le spectre des espèces animales testées
The distinction between human and animal remains or between different animal species represents one of the most fundamental steps in the identification of bone remains discovered in archaeological and forensic contexts. Unfortunately, the frequent bone fragmentation makes this identification difficult or even impossible only based on anatomical osteology. The use of new identification criteria and a more accurate method of analysis are then necessary. In this perspective, the analysis of bone microstructural features, in particular, the canal cortical network (CCN) appears discriminating as its organization varies among species. This Ph.D. dissertation aims to define CCN microstructural parameters allowing the determination of the human or non-human origin of bone fragments and then the identification of the animal species concerned. In this research, we performed 3D qualitative and quantitative analysis of µCT images from long bones (Femur and humerus) of 3 species (H. sapiens, S. scrofa and B. taurus). The identification test, based on the random forests statistical method, results in a total correct identification rate of 88.82%. 100% of the human's samples were properly identified as well as 86.6% of S. scrofa and 79.51% of B. taurus samples. Canal’s mean length and connectivity appear to be the most discriminating parameters. The 3D observation and quantification of CCN proved to be a non-invasive and promising method for species identification, appropriate for the study of rare or fragile specimens. It can be useful in various science fields in case of important fragmentation. In order to confirm and improved theses first results, it is, however, necessary to enhance this identification method by testing other bones and animal species
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Risser, Laurent. „Analyse quantitative de réseaux micro-vasculaires intra-corticaux“. Toulouse 3, 2007. http://www.theses.fr/2007TOU30011.

Der volle Inhalt der Quelle
Annotation:
Cette thèse développe une étude quantitative du réseau micro-vasculaire intra-cortical obtenu à partir d'une méthode originale d'imagerie micro-tomographique possédant une résolution micrométrique sur toute l'épaisseur de la substance grise. La première partie de la thèse concerne le traitement des images 3D de très grosse taille provenant de différents types de cortex sains et tumoraux chez le rat et le primate. Des méthodes classiques sont utilisées pour binariser et squelettiser les images. L'influence du protocole expérimental sur les données obtenues est évalué. Une méthode originale et performante de raccordement des vaisseaux mal injectés est proposée, développée, validée et testée. La deuxième partie de la thèse concerne l'analyse statistique des réseaux micro-vasculaires. Nous distinguons l'analyse géométrique, l'analyse locale et l'analyse topologique. L'analyse géométrique décrit la répartition spatiale micro-vasculaire à travers l'étude de la densité vasculaire et de la distance tissu/vaisseau. La nature multi-échelle de cette répartition spatiale a été mise en évidence par des analyses spectrales et fractales. Les volumes élémentaires représentatifs associés à cette répartition ont été évalués, et des différences significatives entre tissu sains et tumeurs ont été mesurées. L'analyse locale des longueurs de vaisseaux exhibe systématiquement une distribution exponentielle très nette qui met en évidence une longueur caractéristique pour chaque tissu analysé. Ces longueurs caractéristiques sont significativement différentes entre primates adultes et nouveaux nés. Ces résultats corroborent l'analyse effectuée sur les densités vasculaires et font émerger le schéma d'une maturation vasculaire développementale essentiellement associée à la croissance du lit capillaire. .
This work is a quantitative investigation of intra-cortical micro-vascular networks using a new micro-tomography imaging protocol which permits a complete scan of the entire gray matter with a micron resolution. The first part of the PhD is devoted to the analysis of very large 3D images coming from healthy rats and marmosets primate cortex, as well as tumour implanted rats brains. Classical methods are used for binarisation and squeletonization of the images. The influence of the experimental protocol on the obtained images is evaluated. A fast and original method is proposed to fill the gaps of incompletely injected vessels the efficiency of which is tested and validated. The second part of the PhD is concerned by the statistical analysis of geometrical, local and topological properties of micro-vascular networks. Geometrical properties are related to the spatial distribution of vessels from studying the vascular density and the vessel/tissue distance map. We brought to the fore the multi-scale properties of those fields from fractal and spectral analysis up to a some cut-off which defines the typical length-scale of an elementary representative volume. We found that this length-scale significantly differ in normal and tumoral tissues. The local analysis of vessel's segment length systematically exhibits exponential distribution, which leads to some characteristic segments length. Those length significantly differ in adult and new-born primates tissues. This analysis is consistent with the result obtained on the vascular density and leads to the conclusion that developmental angiogenesis occurs mainly at the capillary scale. .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Vincent, Rémi. „Modélisation et simulation en trois dimensions d'un réseau fibreux en vue de prédire ses propriétés physiques“. Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00193223.

Der volle Inhalt der Quelle
Annotation:
Les fabricants de papier disposent de sources de matières premières fibreuses très diversifiées parmi lesquelles ils font leur choix en fonction de critères économiques et de potentiel papetier. L'art du papetier consiste à choisir les matières premières et leur faire subir les traitements adaptés.
En vue de mieux comprendre l'influence de la morphologie des fibres sur les caractéristiques du papier, nous avons développé un outil de simulation qui permet de générer, manipuler et visualiser un réseau fibreux dont la structure ressemble à celle d'un papier de laboratoire. Les principales propriétés de contexture ainsi que la résistance à la rupture en traction du réseau sont déterminées. Une méthode de Lattice-Boltzmann a été appliquée pour estimer la perméabilité du réseau. Toutes les étapes ont été validées par un travail expérimental.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Behlouli, Hassan. „Apprentissages auto-améliorants et modélisation de la dynamique temporelle de données évolutives par réseaux de neurones : application au diagnostic et la prédiction en électrocardiologie quantitative“. Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0034.

Der volle Inhalt der Quelle
Annotation:
Nous présentons dans ce mémoire diverses méthodologies visant à améliorer le SUIVI décisionnel de patients et leur validation dans le domaine de l'électrocardiologie quantitative. Dans une première partie, nous proposons une extension au classique modèle d'apprentissage avec professeur de la Reconnaissance de Formes en introduisant le concept d'apprentissage auto-améliorant basé sur l'extraction de connaissances à partir de bases de données non documentées. Ensuite nous appliquons ce concept au cas particulier de l'apprentissage supervisé par réseaux de neurones et nous proposons une méthodologie d'apprentissage auto améliorant intégrant itérativement dans l'ensemble d'apprentissage de départ des données non expertisées extraites de bases de données non validées par des experts. Cette méthode fait intervenir les concepts de combinaison de réseaux de neurones, la notion de rejet de cas ambigus et le contrôle du processus d'apprentissage par validation croisée. Appliquée au classement de pathologies cardiaques, nous montrons que, dans la plupart des cas, une amélioration des performances des classifieurs est observée. Dans une deuxième partie, nous avons mis au point une méthodologie à base de réseaux de neurones pour modéliser le comportement dynamique du cœur, en particulier pour prédire un des principaux descripteurs de la repolarisation ventriculaire, l'intervalle QT, en fonction de RR, l'inverse de la fréquence cardiaque. Une première évaluation sur des séquences l'Electrocardiogrammes 3D (ECG-3D) enregistrés en continu sur 24 heures a permis de démontrer la pertinence des modèles élaborés et d'étudier le rôle de différents paramètres (notamment l'effet mémoire et le niveau de bruit) sur la qualité de prédiction des modèles. Enfin, ce travail s'est concrétisé par une série d'outils d'analyse et de traitement génériques que nous avons intégrés dans l'environnement MATIS (MAthematical Tools Integration Software), système qui est l'un des pivots de la future station de travail du chercheur cardiologue
We present various methodologies to improve decision making on follow-up patient data and their validation in the field of quantitative electrocardiology. First, we propose an extension to the classical Pattern Recognition supervised learning model by introducing a self-improving concept based on information min. Ing from undocumented datasets. Then we apply this concept to the particular case of neural networks based supervised learning and we propose a self-improving learning methodology integrating iteratively, in the initial learning set, undocumented data that are extracted from databases not validated by experts. This method involves different concepts such as neural network combination, rejection of ambiguous cases and control of the learning process by cross-validation. Using this approach for the categorisation of cardiac diseases we could significantly improve the performance of the original classifiers. Secondly, we developed a methodology based on neural networks to model the dynamic behavior of the heart particularly for predicting one of the main descriptors of the ventricular repolarisation, i. E. : the QT interval as a function of the RR interval that represents the inverse of heart rate. An initial evaluation on a series of sequences of 30 electrocardiograms (3D ECG) continuously '1 recorded over 24 hours allowed to demonstrate the pertinence of the models and to study the ray of some parameters (e. G. Memory effect and noise level) on the prediction quality of this model We conclude by presenting another outcome of our work, a series of generic analysis processing tool s that were integrated into the MATIS environment (Mathematical Tools Integration Software), which is a fundamental building black for the future workstation of the research cardiologist
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Aden, Diriye Abdourahman. „Modélisation analytique tridimensionnelle de nouvelles structures de génératrices électriques destinées à l'éolien de forte puissance“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH13/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’inscrit dans une thématique de recherche prioritaire développée par le laboratoire GREAH et portant sur l’optimisation de l'efficacité énergétique des systèmes de gestion et de production de l’énergie électrique. Dans ce cadre, les performances de convertisseurs d’énergie (machines électriques pour la conversion de l'énergie électromécanique) ont un impact déterminant sur l'efficacité énergétique de la conversion et sur la qualité de gestion de l'énergie électrique en termes de rendement, de maximisation de la puissance massique, de réduction des émissions, de réduction des coûts, ce qui nécessite, par conséquent, un effort particulier de conception et de dimensionnement. L’objectif principal de cette thèse vise à développer un modèle léger permettant d’exploiter assez rapidement l’espace des solutions potentiellement optimales dans la première phase de la conception des machines synchrones à aimants permanents. Les travaux présentés dans ce mémoire de thèse portent sur la modélisation électromagnétique pour le pré-dimensionnement et la conception des machines synchrones à aimants permanents intégrées dans l’éolien de fort puissance. Dans ce manuscrit, deux approches de modélisation des machines électriques ont été proposées. La modélisation par réseau de réluctances présentée consiste à découper le domaine d’étude en un certain nombre d’éléments volumiques dont chacun est décomposé en tubes de flux. La modélisation analytique hybride proposée est basée sur un couplage fort entre un réseau de réluctances généré à partir d’un maillage du domaine d’étude et une solution formelle des équations de Maxwell dans les régions de faible perméabilité (entrefer magnétique). Les résultats obtenus à partir de ces modèles sont validés par les résultats correspondants issus de la méthode des éléments finis. Pour montrer le gain obtenu en temps de calcul, les temps d’exécutions des codes de calcul sont comparés aux temps mis par le logiciel Flux
This subject of the thesis is part of a priority research theme developed by the GREAH laboratory on the optimization of the energy efficiency of electrical energy management and production systems. In this context, the performance of energy converters (electrical machines for the conversion of electromechanical energy) have a decisive impact on the energy efficiency of the conversion and on the quality of electrical energy management in terms of efficiency, reduction of emissions, reduction of costs, which therefore requires a special effort to design. The main objective of this thesis is to develop a light model allowing to exploit fairly quickly the space of potentially optimal solutions in the first phase of machine design. The work presented in this thesis focuses on electromagnetic modeling for the pre-design of permanent magnets synchronous machines integrated into high power wind turbines. In this manuscript, two modeling approaches of electric machines have been proposed. The presented reluctance network modeling is generated from the mesh of studied domain as the finite element method. Reluctance elements are used for the mesh. The proposed hybrid analytical modeling is based on a strong coupling between a reluctances network generated from a mesh of the study domain and analytical models based on the formal solution of Maxwell’s equations in regions of low permeability (magnetic gap). This approach can help solve the problem of air-gap modeling in MEC method, and the consideration of the local magnetic saturation in modeling approaches involving analytical technique. The results obtained from these models are validated by the corresponding results from the finite element method and very good has been observed. To indicate the gain obtained in time, the execution times of the programs are compared to the times set by the Flux software
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Magnin, Olivier. „Utilisation des ondes sismiques pour le caractérisation d'objets enfouis : contribution à la mise au point d'une méthode d'imagerie sismique de très haute résolution : application à l'imagerie des fondations de pylônes du Réseau de Transport d'Electricité“. Université Joseph Fourier (Grenoble ; 1971-2015), 2008. http://www.theses.fr/2008GRE10056.

Der volle Inhalt der Quelle
Annotation:
Les travaux réalisés dans le cadre de cette thèse ont contribué à tester et à valider un certain nombre d’outils indispensables à la mise au point d’un nouveau procédé d’imagerie sismique tridimensionnelle des objets enfouis dans la proche surface. On citera en particulier la mise en place d’une procédure de caractérisation fine du champ de vitesses des terrains superficiels, le développement d’une nouvelle source sismique vibratoire légère haute fréquence, et le développement d’un code de modélisation numérique tridimensionnel permettant de calculer directement la réponse sismique approchée d’un objet enfoui. La mise en oeuvre combinée des méthodes d’inversion tomographique des données de sismique réfraction, et d’inversion de la courbe de dispersion des ondes de Rayleigh permet de caractériser avec une grande précision le champ de vitesses en ondes P et en ondes S du terrain naturel. Notre prototype de source, élaboré à partir d’un pot vibrant, nous a permis de valider un concept innovant de source sismique vibratoire légère et haute fréquence. Le transfert de technologie vers un équipement de type système inertiel plus fiable et plus robuste s’est effectué dans d’excellentes conditions, nous permettant ainsi de disposer d’une source parfaitement adaptée à nos objectifs. Son poids est de 20 kg, avec une surface de couplage au sol n’excédant pas 15 cm par 15 cm. Il est possible de générer différents types de signaux dont les caractéristiques sont entièrement définies par l’utilisateur, sur une plage de fréquence allant de 60 à 2000 Hz. Le signal est parfaitement répétitif avec un contrôle très précis du temps zéro. Le développement d’un nouveau code de modélisation numérique en milieu tridimensionnel, permettant de calculer directement la réponse sismique approchée d’un objet enfoui de forme complexe a été mené à son terme. Ce programme s’appuie sur une hypothèse simplificatrice qui consiste à « remplacer » l’objet par un ensemble de points diffractants répartis suivant une grille tridimensionnelle suffisamment dense. On considère que chacun de ces points est excité par le champ d’onde sismique incident. La réponse sismique approchée de l’objet est obtenue en sommant les radiations individuelles de l’ensemble des points. Le calcul de la perturbation du champ d’onde sismique pour chaque point diffractant s’appuie sur le calcul des dérivées de Fréchet dont la formulation analytique fait intervenir une combinaison des fonctions de Green et de leurs dérivées spatiales et temporelles. Cette approche, qui repose sur le concept de diffraction simple de l’approximation de Born d’ordre 1, a été appliquée à une structure 3D de forme complexe, représentant une fondation de pylône du Réseau de Transport et d’Electricité. Ces travaux nous ont permis d’étudier la limite de validité de la théorie des points diffractants pour la reconstruction de la réponse sismique d’une structure tridimensionnelle. Les mécanismes qui engendrent la réponse sismique de deux fondations de pylônes de type 5i et 4n ont été étudiés, et la géométrie du dispositif d’acquisition a pu être optimisée afin de se placer dans la meilleure configuration possible pour l’imagerie sismique de ces fondations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Boudjemaï, Farid. „Reconstruction de surfaces d'objets 3D à partir de nuages de points par réseaux de neurones 3D-SOM“. Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/bcedde4b-f138-4193-8cec-20a49de14358.

Der volle Inhalt der Quelle
Annotation:
Les travaux menés dans le cadre de cette thèse ont pour principal objectif de développer une architecture neuronale auto-adaptative et non supervisée dévolue à la reconstruction d'ohjets 3D. L'espace d'entrée du réseau de neurones est constitué du nuage de points 3D non-organisés acquis à la surface de l'objet à reconstruire. Nos travaux se sont orientés vers le développement d'une nouvelle architecture neuronale inspirée des cartes auto-organisatrices de Kohonen que nous avons appelée 3D-SOM. Après apprentissage du nuage de points par le réseau, l'architecture du réseau se présente sous la forme d'une architecture neuronale maillée ayant pris la forme de l'objet à reconstruire. Nous avons adjoint au réseau 3D-SOM différentes lois d'apprentissage, permettant la mise en œuvre d'un processus d'auto-organisation efficace. Nous avons également introduit : - un niveau d'adaptation modulable qui pennet l'évolution dynamique du voisinage d'apprentissage. - une loi d'adaptation locale subordonnée à des critères spécifiques pour chaque neurone ou pour chaque triangle (coefficient d'apprentissage local, densité locale des points dans le nuage, orientation des normales aux triangles). - un processus de subdivision d'architecture global ou local qui consiste à accroître le nombre de neurones (donc du nombre de mailles) composant le réseau aux endroits où le réseau rencontre des difficultés à s'adapter à la forme réelle de l'objet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Barthélémy, Pierre. „Etude de la géométrie des réseaux de fractures naturelles à différentes échelles : reconnaissance de structures hiérarchisées et incidence sur les propriétés hydrauliques“. Paris 11, 1992. http://www.theses.fr/1992PA112440.

Der volle Inhalt der Quelle
Annotation:
La fracturation naturelle des roches a une incidence majeure sur les phenomenes de transport dans les formations geologiques. Cependant, les methodes traditionnelles de description fournissent des informations tres locales sur la nature et la distribution de ces fractures et ne rendent pas toujours compte de l'allure generale du champ fracture. De nouvelles methodes d'approche doivent donc etre recherchees. Dans cette etude, on suppose que certaines proprietes geometriques des reseaux de fractures ne peuvent etre clairement mises en evidence que par un travail impliquant differentes echelles d'observation. Nous montrons qu'en envisageant un continuum d'echelles, dans une gamme donnee, on fait apparaitre, pour ces reseaux, des proprietes geometriques inaccessibles par l'etude des seules echelles extremes de cette gamme. La mise au point et l'application d'une methodologie simple, allant de l'acquisition des donnees a la quantification de la geometrie d'un champ fracture, nous permet de montrer la hierarchie des reseaux observes dans le plan horizontal. Cette hierarchie correspond a l'imbrication de reseaux de fractures de largeurs differentes. La meme etude appliquee au plan vertical n'est pas aussi convaincante et elle ne permet donc pas de resoudre totalement le probleme de la restitution d'une image complete de la fracturation en trois dimensions. Neanmoins, une telle etude fournit la matiere pour une analyse critique de la relation entre la densite de fracturation et l'epaisseur des bancs. On montre que cette relation ne peut etre clairement etablie que si on sait definir la limite mecanique des bancs. En dernier lieu, on regarde l'incidence de la hierarchie des reseaux de fractures sur la conductivite hydraulique du milieu fracture. Ainsi, on montre que cette hierarchie et l'influence de la nature des limites de bancs sont des parametres dont il faudra tenir compte lors de l'elaboration de nouveaux modeles geometriques et hydrauliques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Bahmani, Maryam. „Exploration architecturale et étude des performances des réseaux sur puce 3D partiellement connectés verticalement“. Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM066/document.

Der volle Inhalt der Quelle
Annotation:
L'utilisation de la troisième dimension peut entraîner une réduction significative de la puissance et de la latence moyenne du trafic dans les réseaux sur puce (Network-on-Chip). La technologie des vias à travers le substrat (ou Through-Silicon Via) est la technologie la plus prometteuse pour l'intégration 3D, car elle offre des liens verticaux courts qui remédient au problème des longs fils dans les NoCs-2D. Les TSVs sont cependant énormes et les processus de fabrication sont immatures, ce qui réduit le rendement des systèmes sur puce à base de NoC-3D. Par conséquent, l'idée de réseaux sur puce 3D partiellement connectés verticalement a été introduite pour bénéficier de la technologie 3D tout en conservant un haut rendement. En outre, de tels réseaux sont flexibles, car le nombre, l'emplacement et l'affectation des liens verticaux dans chaque couche peuvent être décidés en fonction des exigences de l'application. Cependant, ce type de réseaux pose un certain nombre de défis : Le routage est le problème majeur, car l'élimination de certains liens verticaux fait que l'on ne peut utiliser les algorithmes classiques qui suivent l'ordre des dimensions. Pour répondre à cette question nous expliquons et évaluons un algorithme de routage déterministe appelé “Elevator First”, qui garanti d'une part que si un chemin existe, alors on le trouve, et que d'autre part il n'y aura pas d'interblocages. Fondamentalement, la performance du NoC est affecté par a) la micro architecture des routeurs et b) l'architecture d'interconnexion. L'architecture du routeur a un effet significatif sur la performance du NoC, à cause de la latence qu'il induit. Nous présentons la conception et la mise en œuvre de la micro-architecture d'un routeur à faible latence implantant​​l'algorithme de routage Elevator First, qui consomme une quantité raisonnable de surface et de puissance. Du point de vue de l'architecture, le nombre et le placement des liens verticaux ont un rôle important dans la performance des réseaux 3D partiellement connectés verticalement, car ils affectent le nombre moyen de sauts et le taux d'utilisation des FIFOs dans le réseau. En outre, l'affectation des liens verticaux vers les routeurs qui n'ont pas de ports vers le haut ou/et le bas est une question importante qui influe fortement sur les performances. Par conséquent, l'exploration architecturale des réseaux sur puce 3D partiellement connectés verticalement est importante. Nous définissons, étudions et évaluons des paramètres qui décrivent le comportement du réseau, de manière à déterminer le placement et l'affectation des liens verticaux dans les couches de manière simple et efficace. Nous proposons une méthode d'estimation quadratique visantà anticiper le seuil de saturation basée sur ces paramètres
Utilization of the third dimension can lead to a significant reduction in power and average hop-count in Networks- on-Chip (NoC). TSV technology, as the most promising technology in 3D integration, offers short and fast vertical links which copes with the long wire problem in 2D NoCs. Nonetheless, TSVs are huge and their manufacturing process is still immature, which reduces the yield of 3D NoC based SoC. Therefore, Vertically-Partially-Connected 3D-NoC has been introduced to benefit from both 3D technology and high yield. Moreover, Vertically-Partially-Connected 3D-NoC is flexible, due to the fact that the number, placement, and assignment of the vertical links in each layer can be decided based on the limitations and requirements of the design. However, there are challenges to present a feasible and high-performance Vertically-Partially-Connected Mesh-based 3D-NoC due to the removed vertical links between the layers. This thesis addresses the challenges of Vertically-Partially-Connected Mesh-based 3D-NoC: Routing is the major problem of the Vertically-Partially-Connected 3D-NoC. Since some vertical links are removed, some of the routers do not have up or/and down ports. Therefore, there should be a path to send a packet to upper or lower layer which obviously has to be determined by a routing algorithm. The suggested paths should not cause deadlock through the network. To cope with this problem we explain and evaluate a deadlock- and livelock-free routing algorithm called Elevator First. Fundamentally, the NoC performance is affected by both 1) micro-architecture of routers and 2) architecture of interconnection. The router architecture has a significant effect on the performance of NoC, as it is a part of transportation delay. Therefore, the simplicity and efficiency of the design of NoC router micro architecture are the critical issues, especially in Vertically-Partially-Connected 3D-NoC which has already suffered from high average latency due to some removed vertical links. Therefore, we present the design and implementation the micro-architecture of a router which not only exactly and quickly transfers the packets based on the Elevator First routing algorithm, but it also consumes a reasonable amount of area and power. From the architecture point of view, the number and placement of vertical links have a key role in the performance of the Vertically-Partially-Connected Mesh-based 3D-NoC, since they affect the average hop-count and link and buffer utilization in the network. Furthermore, the assignment of the vertical links to the routers which do not have up or/and down port(s) is an important issue which influences the performance of the 3D routers. Therefore, the architectural exploration of Vertically-Partially-Connected Mesh-based 3D-NoC is both important and non-trivial. We define, study, and evaluate the parameters which describe the behavior of the network. The parameters can be helpful to place and assign the vertical links in the layers effectively. Finally, we propose a quadratic-based estimation method to anticipate the saturation threshold of the network's average latency
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bekhti, Mustapha. „Réseaux de capteurs : application à la poursuite des cibles mobiles“. Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD092.

Der volle Inhalt der Quelle
Annotation:
L’objet de cette thèse est l’étude et la mise en place de solutions pour des problèmes de poursuite de cibles mobiles en exploitant les réseaux sans fil. L’objectilf principal est le développement de solutions pour l’exploitation des petits drones dans des applications civiles. La sécurité de vol est un élément primordial. A l’instar des avions pilotés et en outre des capacités d'évitement de collision, l’identification, la localisation et le tracking des petits drones, sont des conditions sine qua non pour l'intégration de cette technologie dans l’espace aérien. Il faut donc pouvoir planifier des trajectoires pour les drones qui assurent d’une part une meilleur localisation, un meilleur tracking, et qui garantissent l'évitement d’obstacles et les collisions. Les pistes étudiées dans cette thèse sont des sujets d’actualités. Elles couvrent deux catégories principales de contributions : premièrement, la planification des trajectoires et le suivi des drones avec des missions de livraison de colis et de collecte de données, et deuxièmement, la détection d’intrusion dans une zone sensible par l’utilisation d’une flotte de drones. Les résultats montrent que l’intégration du segment drone aux réseaux terrestres sans fil présente une valeur ajoutée et pertinente et ouvre de nouvelles perspectives à l’utilisation de cette technologie dans le domaine civil
For decades Unmanned Aerial Vehicles (UAVs) are widely used in modern warfare for surveillance, reconnaissance, sensing, battle damage assessment and attacking. The benefits of UAVs include reduced cost and no warfighter risk. In fact UAVs use is increased by time,especially under the concept of the network centric operation environment and under the concept of revolution in military affairs. On the other hand, the UAVs technology which originates from military applications, arouse the interest of the civilian, and yet, the domestic use began with limited aerial patrols of the nation’s borders, disaster and law enforcement situation. Recently, these products have also been destined to the commercial market and have gained much attention. Although UAVs use is expanding, their level of automation, cooperation and integration in civil application is far from being efficient and the design principles of such cooperation, coordination and self-organization under an Ad-hoc networkof a multi-UAV still need intensive studies and remain an open research problem. In this thesis, the investigated tracks were drawn both from the literature review and from the news topics. Thus, they covered two main classes of contributions, first, path planning and tracking of drones with package delivery and data gathering missions, and second, intrusion detection in a sensitive area through the use of networked drones.The results show that the integration of the drone segment to the terrestrial wireless network presents a relevant added value and opens new perspectives to the use of this technology in the civilian realm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Courchay, Jérôme. „Calibration par programmation linéaire et reconstruction spatio-temporelle à partir de réseaux d’images“. Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1014/document.

Der volle Inhalt der Quelle
Annotation:
Le problème de la stéréovision à partir de caméras multiples calibrées capturant une scène fixe est étudié depuis plusieurs décennies. Les résultats présentés dans le benchmark de stéréovision proposé par Strecha et al., attestent de la qualité des reconstructions obtenues. En particulier, les travaux du laboratoire IMAGINE, mènent à des résultats visuellement impressionnant. Aussi, il devient intéressant de calibrer des scènes de plus en plus vastes, afin d'appliquer ces algorithmes de stéréovision de façon optimale. Trois objectifs essentiels apparaissent : – La précision de la calibration doit être améliorée. En effet comme pointé par Yasutaka Furukawa, même les benchmarks de stéréovision fournissent parfois des caméras bruitées à la précision imparfaite. Un des moyen d'améliorer les résultats de stéréovision est d'augmenter la précision de la calibration. – Il est important de pouvoir prendre en compte les cycles dans le graphe des caméras de façon globale. En effet la plupart des méthodes actuelles sont séquentielles, et dérivent. Ainsi ces méthodes ne garantissent pas, pour une très grande boucle, de retrouver cette configuration cyclique, mais peuvent plutôt retrouver une configuration des caméras en spirale. Comme on calibre des réseaux d'images, de plus en plus grand, ce point est donc crucial. – Pour calibrer des réseaux d'images très grands, il convient d'avoir des algorithmes rapides. Les méthodes de calibration que nous proposons dans la première partie, permettent de calibrer des réseaux avec une précision très proche de l'état de l'art. D'autre part elle permettent de gérer les contraintes de cyclicité par le biais d'optimisations linéaires sous contraintes linéaires. Ainsi ces méthodes permettent de prendre en compte les cycles et bénéficient de la rapidité de la programmation linéaire. Enfin, la recherche en stéréovision étant arrivée à maturité, il convient de s'intéresser à l'étape suivante, à savoir la reconstruction spatio-temporelle. La méthode du laboratoire IMAGINE représentant l'état de l'art en stéréovision, il est intéressant de développer cette méthode et de l'étendre à la reconstruction spatio-temporelle, c'est-à-dire la reconstruction d'une scène dynamique capturée par un dôme de caméras. Nous verrons cette méthode dans la seconde partie de ce manuscrit
The issue of retrieving a 3D shape from a static scene captured with multiple view point calibrated cameras has been deeply studied these last decades. Results presented in the stereovision benchmark made by Strecha et al., show the high quality of state of the art methods. Particularly, works from IMAGINE laboratory lead to impressive results. So, it becomes convenient to calibrate wider and wider scenes, in order to apply these stereovision algorithms to large scale scenes. Three main objectives appear : – The calibration accuracy should be improved. As stated by Yasutaka Furukawa, even stereovision benchmarks use noisy cameras. So one obvious way to improve stereovision, is to improve camera calibration. – It is crucial to take cycles into account in cameras graph in a global way. Most of nowadays methods are sequential and so present a drift. So these methods do not offer the guarantee to retrieve the loopy configuration for a loop made of a high number of images, but retrieve a spiral configuration. As we aim to calibrate wider and wider cameras networks, this point becomes quite crucial. – To calibrate wide cameras networks, having quick and linear algorithms can be necessary. Calibration methods we propose in the first part, allow to calibrate with an accuracy close to state of the art. Moreover, we take cyclicity constraints into account in a global way, with linear optimisations under linear constraints. So these methods allow to take cycle into account and benefit from quickness of linear programming. Finally, sterovision being a well studied topic, it is convenient to concentrate on the next step, that is, spatio-temporal reconstruction. The IMAGINE' stereovision method being the state of the art, it is interesting to extend this method to spatio-temporal reconstruction, that is, dynamique scene reconstruction captured from a dome of cameras
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Serhan, Hayssam. „Approches biomimétiques pour le contrôle de la marche des robots bipèdes : stratégie intuitive et intégration d'un modèle de muscle“. Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0045.

Der volle Inhalt der Quelle
Annotation:
L'approche originale proposée dans cette thèse consiste à modifier en ligne les paramètres de chaque PID par un algorithme d'apprentissage dans le but de reproduire des allures de marche aussi fluides et toniques que ce que l'on peut observer chez l'homme. La démarche s'appuie sur les techniques neuronales et les techniques de modélisation dynamique de l'être humain. Les données expérimentales sont issues des travaux menés par le LISV dans le cadre de ses activités sur le handicap avec le service de rééducation fonctionnelle de l'hôpital Raymond-Poincaré de Garches. Dans une première étape un modèle non linéaire de muscle basé sur un réseau de neurones a été identifié et utilisé comme un modèle de référence pour effectuer l'apprentissage en ligne d'un autre réseau de neurones qui modifie aussi en ligne les paramètres des PID afin que le système physique [Moteur+Contrôleur PID] se comporte comme le modèle de muscle. En vue d'une validation, une simulation dynamique du robot ROBIAN du LISV a, dans un premier temps, été développée sous OPENHRP. Dans un second temps, une approche originale de la marche dynamique en 3D à été implémentée dans ce simulateur. Finalement le modèle physique de muscle déjà développé est incorporé dans l'algorithme de génération de la marche de ROBIAN. L'ensemble est simulé sous OPENHRP. Les résultats montrent que l'apprentissage en ligne des gains des PID du genou à partir du modèle neuronal de muscle permet d'améliorer la fluidité de la marche, la robustesse face aux perurbations (poussées latérale et frontale) et aux transitions marche-stop-marche. Une compararaison avec la marche humaine est menée ainsi qu'une évaluation de la compatibilité énergétique avec les moteurs de ROBIAN
The approach proposed in this thesis is to update the parameters of a PID controller using a specialized learning algorithm in order to reproduce the fluids and tonics that can be observed in human walking gaits. This approach is based on neural techniques and techniques of dynamic walking modeling of the human being. Experimental data are extracted from the work of LISV as part of its activities on disability with the functional rehabilitation department of the Raymond Poincaré hospital in Garches. In a first stage a non-linear model of a muscle based on a neural network has been identified and used as a reference model for learning another neural network which regulates online the parameters of a PID controller in a way for the physical system [PID Controller + Motor] to behave like the muscle model. In order to validate our study, in a first time, a dynamic simulation of the robot ROBIAN of LISV has been developed under OPENHRP. In a second step, an original approach to the 3D dynamic walking has been implemented in this simulator. Finally the physical model of muscle already developed is incorporated into the algorithm for generating the walking cycles of ROBIAN. The set is simulated under OPENHRP. The results show that the online learning of the PID parameters of the knee from the neural model of muscle, did improve the fluidity of movement, increased robustness against perurbations (lateral and frontal push) and walk-stop-walk transitions. Compararaison with human walking is conducted along with an assessment of power consumption compatibility with ROBIAN motors
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Da, penha coelho Alexandre Augusto. „Tolérance aux fautes et fiabilité pour les réseaux sur puce 3D partiellement connectés“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT054.

Der volle Inhalt der Quelle
Annotation:
Le paradigme de réseaux sur puce (NoC), basé sur un mécanisme modulaire de commutation par paquets, peut répondre à de nombreux défis de communication sur puce tels que la complexité du câblage, la latence des communications et la bande passante. De plus, les avantages combinés des circuits intégrés 3D et des NoCs offrent la possibilité de concevoir un système haute performance dans une zone limitée de la puce. Les NoCs 3D souffrent de certains problèmes de fiabilité tels que la variabilité des processus de fabrication 3D-IC. En particulier, le faible rendement de la connexion verticale a un impact significatif sur la conception des piles de matrices tridimensionnelles avec un grand nombre de TSV. De même, les progrès des technologies de fabrication de circuits intégrés entraînent une augmentation potentielle de leur sensibilité aux effets des rayonnements présents dans l'environnement dans lequel ils vont fonctionner. En fait, le nombre croissant de défaillances transitoires est devenu, au cours des dernières années, une préoccupation majeure dans la conception des systèmes de contrôle critiques. Par conséquent, l'évaluation de la sensibilité des circuits et des applications aux événements causés par les particules énergétiques présentes dans l'environnement réel est une préoccupation majeure à laquelle il faut répondre. Cette thèse présente donc des contributions dans deux domaines importants de la recherche sur la fiabilité : dans la conception et la mise en œuvre de schémas de routage à tolérance de pannes sans blocage pour les réseaux sur puce tridimensionnels émergents ; et dans la conception de cadres d'injection de défauts capables d'émuler des défauts transitoires simples et multiples dans les circuits basés sur HDL. La première partie de cette thèse aborde les problèmes des défauts transitoires et permanents dans l'architecture des NoCs 3D et présente une nouvelle unité de calcul de routage résiliente ainsi qu'un nouveau schéma de routage tolérant aux défauts d'exécution. Un nouveau mécanisme résilient est introduit afin de tolérer les défauts transitoires se produisant dans l'unité de calcul de route (RCU), qui est l'élément logique le plus important dans les routeurs NoC. En combinant un circuit de détection de défauts fiable à double échantillonnage au niveau du circuit et un mécanisme de réacheminement économique, nous développons une solution complète de tolérance aux fautes qui peut détecter et corriger efficacement ces erreurs fatales avant que les paquets affectés ne quittent le routeur. Pourtant, dans la première partie de cette thèse, un nouveau schéma de routage à tolérance de pannes pour les réseaux 3D sur puce à connexion verticale partielle appelé FL-RuNS est présenté. Grâce à une distribution asymétrique des canaux virtuels, FL-RuNS peut garantir une distribution de paquets à 100% sous un ensemble non contraint de temps d'exécution et de pannes permanentes des liaisons verticales. Dans le but d'émuler les effets du rayonnement sur les nouvelles conceptions de SoCs, la deuxième partie de cette thèse aborde les méthodologies d'injection de fautes en introduisant deux outils appelés NETFI-2 et NoCFI. NETFI-2 est une méthodologie d'injection de fautes capable d'émuler des défauts transitoires tels que SEU et SET dans un circuit HDL. Des expériences approfondies réalisées sur deux études de cas attrayantes sont présentées pour démontrer les caractéristiques et les avantages de NETFI-2. Enfin, dans la dernière partie de ce travail, nous présentons NoCFI comme une nouvelle méthodologie pour injecter des défauts multiples tels que les MBU et SEMT dans une architecture de réseaux sur puce. NoCFI combine ASIC-design-flow, afin d'extraire les informations de layout, et FPGA-design-flow pour émuler plusieurs défauts transitoires
Networks-on-Chip (NoC) have emerged as a viable solution for the communication challenges in highly complex Systems-on-Chip (SoC). The NoC architecture paradigm, based on a modular packet-switched mechanism, can address many of the on-chip communication challenges such as wiring complexity, communication latency, and bandwidth. Furthermore, the combined benefits of 3D IC and Networks-on-Chip (NoC) schemes provide the possibility of designing a high-performance system in a limited chip area. The major advantages of Three-Dimensional Networks-on-Chip (3D-NoCs) are a considerable reduction in the average wire length and wire delay, resulting in lower power consumption and higher performance. However, 3D-NoCs suffer from some reliability issues such as the process variability of 3D-IC manufacturing. In particular, the low yield of vertical connection significantly impacts the design of three-dimensional die stacks with a large number of Through Silicon Via (TSV). Equally concerning, advances in integrated circuit manufacturing technologies are resulting in a potential increase in their sensitivity to the effects of radiation present in the environment in which they will operate. In fact, the increasing number of transient faults has become, in recent years, a major concern in the design of critical SoC. As a result, the evaluation of the sensitivity of circuits and applications to events caused by energetic particles present in the real environment is a major concern that needs to be addressed. So, this thesis presents contributions in two important areas of reliability research: in the design and implementation of deadlock-free fault-tolerant routing schemes for the emerging three-dimensional Networks-on-Chips; and in the design of fault injection frameworks able to emulate single and multiple transient faults in the HDL-based circuits. The first part of this thesis addresses the issues of transient and permanent faults in the architecture of 3D-NoCs and introduces a new resilient routing computation unit as well as a new runtime fault-tolerant routing scheme. A novel resilient mechanism is introduced in order to tolerate transient faults occurring in the route computation unit (RCU), which is the most important logical element in NoC routers. Failures in the RCU can provoke misrouting, which may lead to severe effects such as deadlocks or packet loss, corrupting the operation of the entire chip. By combining a reliable fault detection circuit leveraging circuit-level double-sampling, with a cost-effective rerouting mechanism, we develop a full fault-tolerance solution that can efficiently detect and correct such fatal errors before the affected packets leave the router. Yet in the first part of this thesis, a novel fault-tolerant routing scheme for vertically-partially-connected 3D Networks-on-Chip called FL-RuNS is presented. Thanks to an asymmetric distribution of virtual channels, FL-RuNS can guarantee 100% packet delivery under an unconstrained set of runtime and permanent vertical link failures. With the aim to emulate the radiation effects on new SoCs designs, the second part of this thesis addresses the fault injection methodologies by introducing two frameworks named NETFI-2 (Netlist Fault Injection) and NoCFI (Networks-on-Chip Fault Injection). NETFI-2 is a fault injection methodology able to emulate transient faults such as Single Event Upsets (SEU) and Single Event Transient (SET) in a HDL-based (Hardware Description Language) design. Extensive experiments performed on two appealing case studies are presented to demonstrate NETFI-2 features and advantage. Finally, in the last part of this work, we present NoCFI as a novel methodology to inject multiple faults such as MBUs and SEMT in a Networks-on-Chip architecture. NoCFI combines ASIC-design-flow, in order to extract layout information, and FPGA-design-flow to emulate multiple transient faults
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Tarabay, Ranine. „Simulations des écoulements sanguins dans des réseaux vasculaires complexes“. Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD034/document.

Der volle Inhalt der Quelle
Annotation:
Au cours des dernières décennies, des progrès remarquables ont été réalisés au niveau de la simulation d’écoulements sanguins dans des modèles anatomiques réalistes construits à partir de données d'imagerie médicale 3D en vue de simulation hémodynamique et physiologique 3D à grande échelle. Alors que les modèles anatomiques précis sont d'une importance primordiale pour simuler le flux sanguin, des conditions aux limites réalistes sont également importantes surtout lorsqu’il s’agit de calculer des champs de vitesse et de pression. La première cible de cette thèse était d'étudier l'analyse de convergence des inconnus pour différents types de conditions aux limites permettant un cadre flexible par rapport au type de données d'entrée (vitesse, pression, débit, ...). Afin de faire face au grand coût informatique associé, nécessitant un calcul haute performance, nous nous sommes intéressés à comparer les performances de deux préconditionneurs par blocs; le preconditionneur LSC (Least-Squared Commutator et le preconditionneur PCD (Pressure Convection Diffusion). Dans le cadre de cette thèse, nous avons implémenté ce dernier dans la bibliothèque Feel++. Dans le but de traiter l'interaction fluide-structure, nous nous sommes focalisés sur l'approximation de la force exercée par le fluide sur la structure, un champ essentiel intervenant dans la condition de continuité pour assurer le couplage du modèle de fluide avec le modèle de structure. Enfin, afin de valider nos choix numériques, deux cas tests ont été réalisés et une comparaison avec les données expérimentales et numériques a été établie et validée (le benchmark FDA et le benchmark Phantom)
Towards a large scale 3D computational model of physiological hemodynamics, remarkable progress has been made in simulating blood flow in realistic anatomical models constructed from three-dimensional medical imaging data in the past few decades. When accurate anatomic models are of primary importance in simulating blood flow, realistic boundary conditions are equally important in computing velocity and pressure fields. Thus, the first target of this thesis was to investigate the convergence analysis of the unknown fields for various types of boundary conditions allowing for a flexible framework with respect to the type of input data (velocity, pressure, flow rate, ...). In order to deal with the associated large computational cost, requiring high performance computing, we were interested in comparing the performance of two block preconditioners; the least-squared commutator preconditioner and the pressure convection diffusion preconditioner. We implemented the latter, in the context of this thesis, in the Feel++ library. With the purpose of handling the fluid-structure interaction, we focused of the approximation of the force exerted by the fluid on the structure, a field that is essential while setting the continuity condition to ensure the coupling of the fluid model with the structure model. Finally, in order to assess our numerical choices, two benchmarks (the FDA benchmark and the Phantom benchmark) were carried out, and a comparison with respect to experimental and numerical data was established and validated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Demésy, Guillaume. „Modélisation électromagnétique tri-dimensionnelle de réseaux complexes. Application au filtrage spectral dans les imageurs CMOS“. Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2009. http://tel.archives-ouvertes.fr/tel-00436046.

Der volle Inhalt der Quelle
Annotation:
L'évolution de la technologie CMOS autorise la réduction des dimensions transverses du pixel d'imageur qui atteignent aujourd'hui 1.75μm. Son épaisseur, en revanche, ne peut être réduite sans modifier le principe de filtrage existant, assuré par des résines colorées absorbantes dont l'épaisseur fixe le profil spectral en transmission. Ces résines ont, de plus, une faible tenue en température et doivent être positionnées au sommet de l'empilement métallo-diélectrique que constitue le pixel. Ces deux facteurs contribuent à la dégradation de la résolution optique du capteur. Dans ce mémoire, nous discutons des possibilités de les remplacer par des structures diffractives métalliques bi-périodiques, moins épaisses et plus résistantes aux traitements thermiques. Pour cela, une nouvelle formulation de la Méthode des Eléments Finis a été introduite. Cette technique, très générale, de résolution d'équations aux dérivées partielles est adaptée, de par sa flexibilité, à la richesse géométrique du pixel CMOS et à la complexité des structures diffractives pressenties. Dans un premier temps, cette méthode a été validée numériquement dans le cas scalaire, puis expérimentalement grâce à des photodiodes de test munies de réseaux mono-dimensionnels. Dans un second temps, la formulation a été généralisée au cas vectoriel de la diffraction d'une onde plane d'incidence et de polarisation arbitraires par un réseau bi-dimensionnel quelconque. Enfin, ce modèle est exploité pour dégager un jeu de paramètres opto-géométriques de réseaux croisés permettant de filtrer la lumière dans ses composantes Rouge, Verte et Bleue.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie