Dissertations / Theses on the topic 'Bit (ordinateur)'

To see the other types of publications on this topic, follow the link: Bit (ordinateur).

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Bit (ordinateur).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Preda, Marius. "Système d'animation d'objets virtuels." Phd thesis, Paris 5, 2002. http://www.theses.fr/2002PA05S019.

Full text
Abstract:
Dans le cadre de la nouvelle société de l'information multimédia et communicante, cette thèse propose des contributions méthodologiques et techniques relatives à la représentation, l'animation et la transmission des objets virtuels. Les méthodes existantes sont analysées de façon comparées et les performances des standards multimédias actuels évaluées en termes de réalisme d'animation et de débit de transmission. Pour surmonter les limitations mises en évidence, un nouveau cadre de modélisation et d'animation de personnages virtuels est proposé. .
Within the framework of the emerging networked multimedia information society, this dissertation brings forward methodological and technical contributions for representing, animating and transmitting 3D virtual objects. The existing methods are first analyzed and compared, and the performances of current multimedia standards are evaluated in terms of animation realism and transmission bitrate. .
APA, Harvard, Vancouver, ISO, and other styles
2

Thiele, Stefan. "Read-out and coherent manipulation of an isolated nuclear spin using a single-molecule magnet spin-transistor." Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-00984973.

Full text
Abstract:
La réalisation d'un ordinateur quantique fonctionnel est l'un des objectifs tech- nologiques les plus ambitieux pour les scientifiques d'aujourd'hui. Sa brique de base est composée d'un système quantique à deux niveaux, appelé bit quantique (ou qubit). Parmi les différents concepts existants, les dispositifs à base de spin sont très attractifs car ils bénéficient de la progression constante des techniques de nanofabrication et permettent la lecture électrique de l'état du qubit. Dans ce contexte, les dispositifs à base de spins nucléaires offrent un temps de cohérence supérieur à celui des dispositifs à base de spin electronique en raison de leur meilleure isolation à l'environnement. Mais ce couplage faible a un prix: la détection et la manipulation des spins nucléaires individuels restent des tâches difficiles. De très bonnes conditions expérimentales étaient donc essentielles pour la réussite de ce projet. Outre des systèmes de filtrage des radiofréquences à très basses températures et des amplificateurs à très faible bruit, j'ai développé de nouveaux supports d'échantillons et des bobines de champ magnétique trois axes compacts avec l'appui des services techniques de l'Institut Néel. Chaque partie a été optimisée afin d'améliorer la qualité de l'installation et évaluée de manière quantitative. Le dispositif lui-même, un qubit réalisé grâce à un transistor de spin nucléaire, est composé d'un aimant à molécule unique couplé à des électrodes source, drain et grille. Il nous a permis de réaliser la lecture électrique de l'état d'un spin nucléaire unique, par un processus de mesure non destructif de son état quantique. Par conséquent, en sondant les états quantique de spin plus rapidement que le temps de relaxation caractéristique de celui-ci, nous avons réalisé la mesure de la trajectoire quantique d'un qubit nucléaire isolé. Cette expérience a mis en lumière le temps de relaxation T1 du spin nucléaire ainsi que son mécanisme de relaxation dominant. La manipulation cohérente du spin nucléaire a été réalisée en utilisant des champs électriques externes au lieu d'un champ magnétique. Cette idée originale a plusieurs avantages. Outre une réduction considérable du chauffage par effet Joule, les champs électriques permettent de contrôler et de manipuler le spin unique de façon très rapide. Cependant, pour coupler le spin à un champ électrique, un processus intermédiaire est nécessaire. Un tel procédé est l'interaction hyperfine, qui, si elle est modifiée par un champ électrique, est également désigné sous le nom d'effet Stark hyperfin. En utilisant cet effet, nous avons mis en évidence la manipulation cohérente d'un spin nucléaire unique et déterminé le temps de cohérence T2 . En outre, l'exploitation de l'effet Stark hyperfin statique nous avons permis de régler le qubit de spin nucléaire à et hors résonance par l'intermédiaire de la tension de grille. Cela pourrait être utilisé pour établir le contrôle de l'intrication entre les différents qubits nucléaires. En résumé, nous avons démontré pour la première fois la possibilité de réaliser et de manipuler un bit quantique basé sur un aimant à molécule unique, étendant ainsi le potentiel de la spintronique moléculaire au delà du stockage de données classique. De plus, la grande polyvalence des molécules aimants est très prometteuse pour une variété d'applications futures qui, peut-être un jour, parviendront à la réalisation d'un ordinateur quantique moléculaire.
APA, Harvard, Vancouver, ISO, and other styles
3

Li, Fangyan. "Simulation multi-moteurs multi-niveaux pour la validation des spécifications système et optimisation de la consommation." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4008/document.

Full text
Abstract:
Ce travail vise la modélisation au niveau système, en langage SystemC-AMS, et la simulation d'un émetteur-récepteur au standard Bluetooth Low Energy (BLE). L'objectif est d'analyser la relation entre les performances, en termes de BER et la consommation d'énergie du transceiver. Le temps de simulation d’un tel système, à partir de cas d’étude (use case) réaliste, est un facteur clé pour le développement d’une telle plateforme. De plus, afin d’obtenir des résultats de simulation le plus précis possible, les modèles « haut niveau » doivent être raffinés à partir de modèles plus bas niveau où de mesure. L'approche dite Meet-in-the-Middle, associée à la méthode de modélisation équivalente en Bande Base (BBE, BaseBand Equivalent), a été choisie pour atteindre les deux conditions requises, à savoir temps de simulation « faible » et précision des résultats. Une simulation globale d'un système de BLE est obtenue en intégrant le modèle de l'émetteur-récepteur dans une plateforme existante développée en SystemC-TLM. La simulation est basée sur un système de communication de deux dispositifs BLE, en utilisant différents scénarios (différents cas d'utilisation de BLE). Dans un premier temps nous avons modélisé et validé chaque bloc d’un transceiver BT. Devant le temps de simulation prohibitif, les blocs RF sont réécrits en utilisant la méthodologie BB, puis raffinés afin de prendre en compte les non-linéarités qui vont impacter le couple consommation, BER. Chaque circuit (chaque modèle) est vérifié séparément, puis une première simulation système (point à point entre un émetteur et un récepteur) est effectuée
This work aims at system-level modelling a defined transceiver for Bluetooth Low energy (BLE) system using SystemC-AMS. The goal is to analyze the relationship between the transceiver performance and the accurate energy consumption. This requires the transceiver model contains system-level simulation speed and the low-level design block power consumption and other RF specifications. The Meet-in-the-Middle approach and the Baseband Equivalent method are chosen to achieve the two requirements above. A global simulation of a complete BLE system is achieved by integrating the transceiver model into a SystemC-TLM described BLE system model which contains the higher-than-PHY levels. The simulation is based on a two BLE devices communication system and is run with different BLE use cases. The transceiver Bit-Error-Rate and the energy estimation are obtained at the end of the simulation. First, we modelled and validated each block of a BT transceiver. In front of the prohibitive simulation time, the RF blocks are rewritten by using the BBE methodology, and then refined in order to take into account the non-linearities, which are going to impact the couple consumption, BER. Each circuit (each model) is separately verified, and then a first BLE system simulation (point-to-point between a transmitter and a receiver) has been executed. Finally, the BER is finally estimated. This platform fulfills our expectations, the simulation time is suitable and the results have been validated with the circuit measurement offered by Riviera Waves Company. Finally, two versions of the same transceiver architecture are modelled, simulated and compared
APA, Harvard, Vancouver, ISO, and other styles
4

Melul, Franck. "Développement d'une nouvelle génération de point mémoire de type EEPROM pour les applications à forte densité d'intégration." Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0266.

Full text
Abstract:
L’objectif de ces travaux de thèse a été de développer une nouvelle génération de point mémoire de type EEPROM pour les applications à haute fiabilité et à haute densité d’intégration. Dans un premier temps, une cellule mémoire très innovante développée par STMicroelectronics – eSTM (mémoire à stockage de charges de type Splitgate avec transistor de sélection vertical enterré) – a été étudiée comme cellule de référence. Dans une deuxième partie, dans un souci d’améliorer la fiabilité de la cellule eSTM et de permettre une miniaturisation plus agressive de la cellule EEPROM, une nouvelle architecture mémoire a été proposée : la cellule BitErasable. Elle a montré une excellente fiabilité et a permis d’apporter des éléments de compréhension sur les mécanismes de dégradation présents dans ces dispositifs mémoires à transistor de sélection enterré. Cette nouvelle architecture offre de plus la possibilité d’effacer les cellules d’un plan mémoire de façon individuelle : bit à bit. Conscient du grand intérêt que présente l’effacement bit à bit, un nouveau mécanisme d’effacement pour injection de trous chauds a été proposé pour la cellule eSTM. Il a montré des performances et un niveau de fiabilité parfaitement compatible avec les exigences industrielles des applications Flash-NOR
The objective of this thesis was to develop a new generation of EEPROM memory for high reliability and high density applications. First, an innovative memory cell developed by STMicroelectronics - eSTM (Split-gate charge storage memory with buried vertical selection transistor) - was studied as a reference cell. In a second part, to improve the reliability of the eSTM cell and to allow a more aggressive miniaturization of the EEPROM cell, a new memory architecture has been proposed: the BitErasable cell. It showed an excellent reliability and allowed to bring elements of under-standing on the degradation mechanisms present in these memory devices with buried selection transistor. This new architecture also offers the possibility to individually erase cells in a memory array: bit by bit. Aware of the great interest of bit-by-bit erasing, a new erasing mechanism by hot hole injection has been proposed for the eSTM cell. It has shown performances and a level of reliability perfectly compatible with the industrial requirements of Flash-NOR applications
APA, Harvard, Vancouver, ISO, and other styles
5

Petit, Sophie. "Étude des méthodes de prédiction de taux d'erreurs en orbite dans les mémoires : nouvelle approche empirique." Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0015.

Full text
Abstract:
Le phénomène de Single Event Upset (SEU) correspond au basculement logique d'un point mémoire suite au passage d'une particule énergétique. Les composants de type SRAM et DRAM, soumis à l'environnement spatial, sont sensibles aux SEU, il est alors primordial de prévoir leur sensibilité avant de les intégrer dans les missions spatiales. L'enjeu actuel est de concevoir un modèle de prédiction fiable utilisable pour tout type de mémoire, même fortement intégrée. La première phase de ce travail est une analyse des retours d'expériences embarquées qui a permis d'évaluer les modèles de prédiction standard, basés sur la modélisation IRPP, en comparant directement les taux d'erreurs en vol aux taux prédits, et démontrant leur incapacité à fournir des prédictions correctes. L'analyse des sources d'erreurs possibles a montré la difficulté d'améliorer les modèles standard, nous amenant alors à proposer une tout autre technique de prédiction. Ainsi, la méthode de prédiction empirique, basée sur la sensibilité mesurée des composants aux SEU, pour plusieurs angles d'incidence des particules, est présentée et mise en œuvre sur un ensemble de composants ; elle donne des résultats très encourageants. Une étude des événements multiples a été menée : elle montre que la diffusion des porteurs est à prendre en compte dans la modélisation des mécanismes de collection de charge mis en jeu. Enfin, des simulations numériques 3D couplées à des modèles analytiques simples permettent l'étude quantitative des mécanismes de collection dans une des structures ayant volé : ces outils ont confirmé le rôle majeur de la diffusion dans les SEU.
APA, Harvard, Vancouver, ISO, and other styles
6

Marcireau, Alexandre. "Vision par ordinateur évènementielle couleur : cadriciel, prototype et applications." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS248.

Full text
Abstract:
L'ingénierie neuromorphique aborde de manière bio-inspirée le design des capteurs et ordinateurs. Elle prône l'imitation du vivant à l'échelle du transistor, afin de rivaliser avec la robustesse et la faible consommation des systèmes biologiques. Les caméras évènementielles ont vu le jour dans ce cadre. Elles possèdent des pixels indépendants qui détectent de manière asynchrone les changements dans leur champ visuel, avec une grande précision temporelle. Ces propriétés étant mal exploitées par les algorithmes usuels de vision par ordinateur, un nouveau paradigme encourageant de petits calculs à chaque évènement a été développé. Cette approche témoigne d'un potentiel à la fois pour la vision par ordinateur et en tant que modèle biologique. Cette thèse explore la vision par ordinateur évènementielle, afin de mieux comprendre notre système visuel et identifier des applications. Nous approchons le problème par la couleur, un aspect peu exploré des capteurs évènementiels. Nous présentons un cadriciel supportant les évènements couleur, ainsi que deux dispositifs expérimentaux l'utilisant : une caméra couleur évènementielle et un système pour la psychophysique visuelle destiné à l'étude du temps précis dans le cerveau. Nous considérons l'application du capteur couleur à la méthode de génie génétique Brainbow, et présentons un modèle mathématique de cette dernière
Neuromorphic engineering is a bio-inspired approach to sensors and computers design. It aims to mimic biological systems down to the transistor level, to match their unparalleled robustness and power efficiency. In this context, event-based vision sensors have been developed. Unlike conventional cameras, they feature independent pixels which asynchronously generate an output upon detecting changes in their field of view, with high temporal precision. These properties are not leveraged by conventional computer vision algorithms, thus a new paradigm has been devised. It advocates short calculations performed on each event to mimic the brain, and shows promise both for computer vision and as a model of biological vision. This thesis explores event-based computer vision to improve our understanding of visual perception and identify potential applications. We approach the issue through color, a mostly unexplored aspect of event-based sensors. We introduce a framework supporting color events, as well as two experimental devices leveraging it: a three-chip event-based camera performing absolute color measurements, and a visual psychophysics setup to study the role of precise-timing in the brain. We explore the possibility to apply the color sensor to the genetic engineering Brainbow method, and present a new mathematical model for the latter
APA, Harvard, Vancouver, ISO, and other styles
7

Terrissa, Saddek Labib. "Vision bio-fondée appliquée à l'analyse d'images." Le Havre, 2006. http://www.theses.fr/2006LEHA0001.

Full text
Abstract:
La reconnaissance de l'environnement par un être vivant passe forcément par la rétine. Cette partie du système nerveux central réalise beaucoup de traitements et notamment la détection du mouvement et l'extraction des caractéristiques dynamiques d'une scène. Ces aspects n'ont pas atteint le niveau de développement que les traitements statiques en vision artificielle. C'est pourquoi, compte tenu de son intérêt, nous avons contribué à l'élaboration d'un prototype générique de rétine artificielle d'inspiration biologique que nous avons appelé Rétina. Il est fondé sur un réseau de neurones artificiels, organisé de manière à simuler la variation radiale de l'acuité visuelle (vision fovéale). La mise en œuvre de neurones analogiques et impulsionnels nous a permis d'encoder les informations. A partir des signaux impulsionnels issus de la Rétina, nous avons analyser et détecter la variation des niveaux de gris dans des images dynamiques. Ensuite, nous avons effectué une reconstitution de ces images en utilisant des techniques des réseaux de neurones et de traitement de signal
The environment recognition goes inevitably through the retina of alive beings. This component is a part of the central nervous system witch performs many processing, especially in motion detection and features extraction of a scene. These aspects are not reach the development level compared with static processing in artificial vision. For these reasons, we are developed a generic prototype of artificial retina inspired from biology witch we are titled Retina. This system is based on artificial neural network organised to simulate the radial variation of the acuity. The information is encoded through the implementation of analogue and impulse neurons. These retinal signal impulses are analysed in order to detect the variation of grey level in dynamic images. Moreover, we reconstitute these images using neural networks techniques and signal processing
APA, Harvard, Vancouver, ISO, and other styles
8

Debaecker, Thibaud. "Geometric and bio-inspired analysis of non-linear image sensors." Paris 6, 2010. http://www.theses.fr/2010PA066717.

Full text
Abstract:
Alors que l'image sous toutes ses formes s'est désormais imposée dans la vie quotidienne de chacun d'entre nous, les capteurs d'images sortant du classique modèle perspectif à point de vue unique se banalisent jusqu'à devenir les pièces maîtresses de nombreux produits de hautes technologies, à destination d'industries comme du grand public. Qu'ils soient bio-inspirés, se rapprochant des rétines artificielles ou à large champs de vue, grâce à des lentilles ou à des miroirs, l'utilisation des images acquises pas ces appareils nécessitent des modèles qui, jusqu'à présent, ont été construits comme des généralisations des modèles pré-existants et considèrent qu'un capteur d'images réalise un mapping d'un monde en trois dimensions vers une image plane, reliant chaque point de l'image par un rayon à son antécédent dans l'espace. Tous ces capteurs souffrent pourtant de résolutions variables telles, que l'approximation du champ de vue du pixel comme un rayon de lumière pose de réels problèmes dans leur utilisation. Cette thèse présente une triple approche pour la caractérisation de ces capteurs, la première inspirée de l'architecture biologique de la rétine, la seconde est un modèle générique de caméra utilisant les Algèbres Géométriques et une méthode qui en permet le calibrage, quelque soit le type de caméra employé, et la troisième montre que considérer ces ouvertures angulaires pour chaque pixel d'un point de vue projectif permet de retrouver certaines caractéristiques du capteur, de s'affranchir des distortions optiques, et enfin d'obtenir des images après remapping, correspondant à celles qui auraient été prises si le capteur avait été parfaitement perspectif
APA, Harvard, Vancouver, ISO, and other styles
9

Leclercq, Edouard. "Vision artificielle par modules bio-fondés spécifiques : forme et mouvement." Le Havre, 1999. http://www.theses.fr/1999LEHA0001.

Full text
Abstract:
Ce rapport concerne un système de vision artificielle par modules inspires du modèle de vision biologique. Les fonctions de ce système sont ciblées sur la détection de forme et du mouvement d'objets dits synthétiques au sein d'une séquence d'images. Ce système fait appel à des notions de neurocybernétique, c'est-a-dire des notions de neurophysiologie de l'œil couplées à l'informatique. La rétine constitue la référence de base du modèle présenté. Certaines caractéristiques de ce capteur ainsi qu'un type de cellule du cortex visuel primaire sont une source d'inspiration. Deux aspects sont à retenir, l'aspect structurel et l'aspect fonctionnel du modèle. Concernant le premier aspect, le modèle est base sur la notion de pyramide gaussienne permettant de reproduire le principe de multi résolutions. Ce principe est utilisé afin de reproduire la variation d'acuité au sein de la rétine et de modéliser les champs réceptifs des cellules rétiniennes impliquées. Quant à cette structure, de nouveaux filtres performants ont été implémentés. L'aspect fonctionnel présente une architecture hiérarchisée compose de cinq niveaux qui remplissent chacun une fonction spécifique, de l'acquisition d'image jusqu'à l'intégration du mouvement en passant par l'extraction de contours, l'extraction de verticales et la détermination du sens du mouvement. Ces différents niveaux sont constitués de cellules spécifiques inspirées de celles de la rétine et du cortex. Une application relative au suivi d'objet mobile à l'aide d'un globe oculaire est développée. Cette application met en oeuvre la partie traitement du modèle présenté, partie implémentée sur un réseau de transputers T805 suivant une architecture SIMD. Les résultats concernant la détection d'objet ainsi que la détermination du mouvement sont obtenus a l'aide des cellules spécifiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Lee, Yu Chung Eugene. "Co-ordinated supply chain management and optimal control problems." online access from Digital Dissertation Consortium, 2007. http://libweb.cityu.edu.hk/cgi-bin/er/db/ddcdiss.pl?3299869.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Vandevuer, Stéphane. "Etude assistée par ordinateur de protéines et de leurs interactions avec des ligands :application à la D-alanine:Dalanine ligase et à la P-glycoprotéine." Doctoral thesis, Universite Libre de Bruxelles, 2006. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210792.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Giovannangeli, Christophe. "Navigation bio-mimétique autonome en environnements intérieurs et extérieurs : apprentissage sensori-moteur et planification dans un cadre interactif." Cergy-Pontoise, 2007. http://biblioweb.u-cergy.fr/theses/07CERG0346.pdf.

Full text
Abstract:
Cette thèse a pour but de montrer comment la robotique et les sciences du vivant peuvent mutuellement s'enrichir. Nous nous sommes intéressés au problème de la navigation autonome de robots mobiles en environnement d'intérieur et d'extérieur à priori inconnu, en s'inspirant de modèles neurobiologiques de la circuiterie cérébrale. Nous présentons un système de localisation basé sur un modèle de cellules de lieux purement visuelles. Ces cellules de lieux permettent de construire des comportements sensori-moteurs réactifs et de planification. Le système est capable d'apprendre des tâches comportementales en interaction avec un professeur ou de manière autonome par une exploration aléatoire de l'environnement. Nous proposons aussi un système d'orientation utilisant une boussole visuelle et fusionnant des informations allothétiques (boussole visuelle) et idiothétiques (odométrie). Nous débâtons des interactions possibles entre la stratégie sensori-motrice de type lieux-action et la stratégie de planification. Finalement, nous présenterons nos réflexions sur l'autonomie en robotique en proposant une architecture de méta-contrôle permettant au robot de s'auto-évaluer
This thesis aims at highlighting how the interplay between robotics and the sciences of the living can promote both the understanding the cerebral circuitry and the achievment of very robust algorithms for robotics. The problem of the development of a neural achitecture, inspired by neurobiological models of the cerebral circuitry, for autonomous navigation of mobile robots in unknown indoor and outdoor environments, is adressed. A localization system based on a model of purely visual place-cells is presented. The place-cells enable to learn reactive sensory-motor behavior and planning behavior. The system is able to learn behavioral tasks autonomously or by interacting with a human teacher. An orientation system, merging a visual compass and path integration information, will also be proposed. The possible interactions between sensory-motor and planning strategies will be debated. Finally, issues on the autonomy of the learning in robot will be adressed: A metacontrol architecture which gives self-evaluation capabilities by analyzing the learning progress will be presented
APA, Harvard, Vancouver, ISO, and other styles
13

Grard, Matthieu. "Generic instance segmentation for object-oriented bin-picking." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC015.

Full text
Abstract:
Le dévracage robotisé est une tâche industrielle en forte croissance visant à automatiser le déchargement par unité d’une pile d’instances d'objet en vrac pour faciliter des traitements ultérieurs tels que la formation de kits ou l’assemblage de composants. Cependant, le modèle explicite des objets est souvent indisponible dans de nombreux secteurs industriels, notamment alimentaire et automobile, et les instances d'objet peuvent présenter des variations intra-classe, par exemple en raison de déformations élastiques.Les techniques d’estimation de pose, qui nécessitent un modèle explicite et supposent des transformations rigides, ne sont donc pas applicables dans de tels contextes. L'approche alternative consiste à détecter des prises sans notion explicite d’objet, ce qui pénalise fortement le dévracage lorsque l’enchevêtrement des instances est important. Ces approches s’appuient aussi sur une reconstruction multi-vues de la scène, difficile par exemple avec des emballages alimentaires brillants ou transparents, ou réduisant de manière critique le temps de cycle restant dans le cadre d’applications à haute cadence.En collaboration avec Siléane, une entreprise française de robotique industrielle, l’objectif de ce travail est donc de développer une solution par apprentissage pour la localisation des instances les plus prenables d’un vrac à partir d’une seule image, en boucle ouverte, sans modèles d'objet explicites. Dans le contexte du dévracage industriel, notre contribution est double.Premièrement, nous proposons un nouveau réseau pleinement convolutionnel (FCN) pour délinéer les instances et inférer un ordre spatial à leurs frontières. En effet, les méthodes état de l'art pour cette tâche reposent sur deux flux indépendants, respectivement pour les frontières et les occultations, alors que les occultations sont souvent sources de frontières. Plus précisément, l'approche courante, qui consiste à isoler les instances dans des boîtes avant de détecter les frontières et les occultations, se montre inadaptée aux scénarios de dévracage dans la mesure où une région rectangulaire inclut souvent plusieurs instances. A contrario, notre architecture sans détection préalable de régions détecte finement les frontières entre instances, ainsi que le bord occultant correspondant, à partir d'une représentation unifiée de la scène.Deuxièmement, comme les FCNs nécessitent de grands ensembles d'apprentissage qui ne sont pas disponibles dans les applications de dévracage, nous proposons une procédure par simulation pour générer des images d'apprentissage à partir de moteurs physique et de rendu. Plus précisément, des vracs d'instances sont simulés et rendus avec les annotations correspondantes à partir d'ensembles d'images de texture et de maillages auxquels sont appliquées de multiples déformations aléatoires. Nous montrons que les données synthétiques proposées sont vraisemblables pour des applications réelles au sens où elles permettent l'apprentissage de représentations profondes transférables à des données réelles. A travers de nombreuses expériences sur une maquette réelle avec robot, notre réseau entraîné sur données synthétiques surpasse la méthode industrielle de référence, tout en obtenant des performances temps réel. L'approche proposée établit ainsi une nouvelle référence pour le dévracage orienté-objet sans modèle d'objet explicite
Referred to as robotic random bin-picking, a fast-expanding industrial task consists in robotizing the unloading of many object instances piled up in bulk, one at a time, for further processing such as kitting or part assembling. However, explicit object models are not always available in many bin-picking applications, especially in the food and automotive industries. Furthermore, object instances are often subject to intra-class variations, for example due to elastic deformations.Object pose estimation techniques, which require an explicit model and assume rigid transformations, are therefore not suitable in such contexts. The alternative approach, which consists in detecting grasps without an explicit notion of object, proves hardly efficient when the object geometry makes bulk instances prone to occlusion and entanglement. These approaches also typically rely on a multi-view scene reconstruction that may be unfeasible due to transparent and shiny textures, or that reduces critically the time frame for image processing in high-throughput robotic applications.In collaboration with Siléane, a French company in industrial robotics, we thus aim at developing a learning-based solution for localizing the most affordable instance of a pile from a single image, in open loop, without explicit object models. In the context of industrial bin-picking, our contribution is two-fold.First, we propose a novel fully convolutional network (FCN) for jointly delineating instances and inferring the spatial layout at their boundaries. Indeed, the state-of-the-art methods for such a task rely on two independent streams for boundaries and occlusions respectively, whereas occlusions often cause boundaries. Specifically, the mainstream approach, which consists in isolating instances in boxes before detecting boundaries and occlusions, fails in bin-picking scenarios as a rectangle region often includes several instances. By contrast, our box proposal-free architecture recovers fine instance boundaries, augmented with their occluding side, from a unified scene representation. As a result, the proposed network outperforms the two-stream baselines on synthetic data and public real-world datasets.Second, as FCNs require large training datasets that are not available in bin-picking applications, we propose a simulation-based pipeline for generating training images using physics and rendering engines. Specifically, piles of instances are simulated and rendered with their ground-truth annotations from sets of texture images and meshes to which multiple random deformations are applied. We show that the proposed synthetic data is plausible for real-world applications in the sense that it enables the learning of deep representations transferable to real data. Through extensive experiments on a real-world robotic setup, our synthetically trained network outperforms the industrial baseline while achieving real-time performances. The proposed approach thus establishes a new baseline for model-free object-oriented bin-picking
APA, Harvard, Vancouver, ISO, and other styles
14

Emde, Claudia. "A polarized discrete ordinate scattering model for radiative transfer simulations in spherical atmospheres with thermal source." Berlin Logos-Verl, 2005. http://deposit.ddb.de/cgi-bin/dokserv?idn=975294377.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Escobar-Zuniga, María-José. "Modèles bio-inspirés pour l'estimation et l'analyse de mouvement : reconnaissance d'actions et intégration du mouvement." Nice, 2009. http://www.theses.fr/2009NICE4050.

Full text
Abstract:
Cette thèse porte sur l'étude et la modélisation de la perception du mouvement chez le mammifère. Nous montrons comment un système bio-inspiré peut être appliqué dans le cadre d'une application réelle de vision par ordinateur, mais aussi comment il permet de mieux comprendre des phénomènes observés en neurosciences. La première partie de cette thèse étudie comment l'information visuelle est traitée chez le mammifère et comment l'estimation du mouvement est classiquement modelisée. A partir de cette analyse de l'état de l'art, nous avons proposé une architecture sequentielle générale, modélisant les aires corticales V1 et MT. Nous avons utilisé cette architecture pour étudier deux applications. La première application est la reconaissance d'actions dans les séquences d'images, problèmatique encore ouvert en vision par ordinateur. Nous montrons comment notre architecture bio-inspirée peut être appliquée avec succés dans le cadre de cette application réelle, en y apportant de nouvelles idées. En particulier, nous montrons comment la prise en compte de plusieurs propriétés du système visuel chez le mammifère nous permettent d'obtenir des résultats de haute qualité, comparables à ceux des approches les plus récentes. La deuxième application de l'architecture bio-inspirée proposée dans le cadre de cette thèse, est de chercher à comprendre la dynamique de l'intégration du mouvement. Pour cela, nous avons cherché à comprendre le rôle fonctionnel de la suppression du pourtour des neurones de V1. Notre modèle montre comment l'information 2D extraite à partir de ce mécanisme de suppression peut être intégrée dans la solution du problème d'ouverture. Enfin de nombreuse perspectives concluent ce travail, qui montrent combien l'étude de l'estimation de mouvement conserve encore de nombreuses problematiques
This thesis addresses the study of the motion perception in mammals and how bio-inspired systems can be applied to real applications. The first part of this thesis relates how the visual information is processed in the mammal's brains and how motion estimation is usually modeled. Based on this analysis of the state of the art, we propose a feedforward V1-MT core architecture. This feedforward V1-MT core architecture will be a basis to study two different kinds of applications. The first application is human action recognition, which is still a challenging problem in the computer vision community. We show how our bio-inspired method can be successfully applied to this real application. Interestingly, we show how several computational properties inspired from motion processing in mammals, allow us to reach high quality results, which will be compared to latest reference results. The second application of the bio-inspired architecture proposed in this thesis, is to consider the problem of motion integration for the solution of the aperture problem. We investigate the role of delayed V1 surround suppression, and how the 2D information extracted through this mechanism can be integrated to propose a solution for the aperture problem. Finally, we highlight a variety of important issues in the determination of motion estimation and additionally we present many potential avenues for future research efforts
APA, Harvard, Vancouver, ISO, and other styles
16

Jadawi, Akram. "Expanded bio-thermoplastic foam obtained from starch : thermo-physical and mechanical characterizations." Rouen, 2014. http://www.theses.fr/2014ROUES019.

Full text
Abstract:
Les matériaux concernés sont issus de ressources renouvelables protéiniquement pauvres (amidon de farine de blé) qui sont extrudés pour différentes compositions et conditions d’extrusion. Le résultat est un polymère 100% naturel poreux en forme de tube présentant des propriétés mécaniques très sensibles aux conditions de préparation. L’objective générale de cette thèse est de développer un polymère biodégradable écologique qui pourra limiter la production des polymères issue du pétrole comme le Polystyrène expansé. Pour atteindre cet objectif, le matériau a été caractérisé en établissant la relation entre les procédés d’élaboration (conditions d’extrusion, l’effet de plastifiants), les propriétés physico-chimiques, microstructurales (épaisseur moyenne de parois, type de mousse, numéro et taille moyenne de pores) et les propriétés mécaniques. En suite, les propriétés mécaniques ont été modélisées en utilisant des lois de comportement qui décrive ces types des matériaux. La corrélation d’image était aussi utilisée pour la modélisation de comportements mécaniques.
APA, Harvard, Vancouver, ISO, and other styles
17

Bovo, Angela. "Apprentissage automatique pour l'assistance au suivi d'étudiants en ligne : approches classique et bio-inspirée." Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10035/document.

Full text
Abstract:
Cette thèse a pris la forme d’un partenariat entre l’équipe VORTEX du laboratoire de recherche en informatique IRIT et l’entreprise Andil, spécialisée dans l'informatique pour l'e-learning. Ce partenariat est conclu autour d’une thèse CIFRE, dispositif soutenu par l’État via l’ANRT. La doctorante, Angela Bovo, a travaillé au sein de l'Université Toulouse 1 Capitole. Un partenariat a également été noué avec l'institut de formation Juriscampus, qui nous a fourni des données issues de formations réelles pour nos expérimentations. Notre objectif principal avec ce projet était d'améliorer les possibilités de suivi des étudiants en cours de formation en ligne pour éviter leur décrochage ou leur échec. Nous avons proposé des possibilités de suivi par apprentissage automatique classique en utilisant comme données les traces d'activité des élèves. Nous avons également proposé, à partir de nos données, des indicateurs de comportement des apprenants. Avec Andil, nous avons conçu et réalisé une application web du nom de GIGA, déjà commercialisée et appréciée par les responsables de formation, qui implémente ces propositions et qui a servi de base à de premières expériences de partitionnement de données qui semblent permettre d'identifier les étudiants en difficulté ou en voie d'abandon. Ce projet a également été lancé avec l'objectif d'étudier les possibilités de l'algorithme d'apprentissage automatique inspiré du cerveau humain Hierarchical Temporal Memory (HTM), dans sa version Cortical Learning Algorithm (CLA), dont les hypothèses fondatrices sont bien adaptées à notre problème. Nous avons proposé des façons d'adapter HTM-CLA à des fonctionnalités d'apprentissage automatique classique (partitionnement, classification, régression, prédiction), afin de comparer ses résultats à ceux fournis par les autres algorithmes plus classiques ; mais aussi de l'utiliser comme base d'un moteur de génération de comportement, qui pourrait être utilisé pour créer un tuteur virtuel intelligent chargé de conseiller les apprenants en temps réel. Les implémentations ne sont toutefois pas encore parvenues à produire des résultats probants
This Ph.D. took the shape of a partnership between the VORTEX team in the computer science research laboratory IRIT and the company Andil, which specializes in software for e-learning. This partnership was concluded around a CIFRE Ph.D. This plan is subsidized by the French state through the ANRT. The Ph.D. student, Angela Bovo, worked in Université Toulouse 1 Capitole. Another partnership was built with the training institute Juriscampus, which gave us access to data from real trainings for our experiments. Our main goal for this project was to improve the possibilities for monitoring students in an e-learning training to keep them from falling behind or giving up. We proposed ways to do such monitoring with classical machine learning methods, with the logs from students' activity as data. We also proposed, using the same data, indicators of students' behaviour. With Andil, we designed and produced a web application called GIGA, already marketed and sold, and well appreciated by training managers, which implements our proposals and served as a basis for first clustering experiments which seem to identify well students who are failing or about to give up. Another goal of this project was to study the capacities of the human brain inspired machine learning algorithm Hierarchical Temporal Memory (HTM), in its Cortical Learning Algorithm (CLA) version, because its base hypotheses are well adapted to our problem. We proposed ways to adapt HTM-CLA to classical machine learning functionalities (clustering, classification, regression, prediction), in order to compare its results to those of more classical algorithms; but also to use it as a basis for a behaviour generation engine, which could be used to create an intelligent tutoring system tasked with advising students in real time. However, our implementations did not get to the point of conclusive results
APA, Harvard, Vancouver, ISO, and other styles
18

Boisard, Olivier. "Optimization and implementation of bio-inspired feature extraction frameworks for visual object recognition." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS016/document.

Full text
Abstract:
L'industrie a des besoins croissants en systèmes dits intelligents, capable d'analyserles signaux acquis par des capteurs et prendre une décision en conséquence. Cessystèmes sont particulièrement utiles pour des applications de vidéo-surveillanceou de contrôle de qualité. Pour des questions de coût et de consommation d'énergie,il est souhaitable que la prise de décision ait lieu au plus près du capteur. Pourrépondre à cette problématique, une approche prometteuse est d'utiliser des méthodesdites bio-inspirées, qui consistent en l'application de modèles computationels issusde la biologie ou des sciences cognitives à des problèmes industriels. Les travauxmenés au cours de ce doctorat ont consisté à choisir des méthodes d'extractionde caractéristiques bio-inspirées, et à les optimiser dans le but de les implantersur des plateformes matérielles dédiées pour des applications en vision par ordinateur.Tout d'abord, nous proposons un algorithme générique pouvant être utilisés dans différentscas d'utilisation, ayant une complexité acceptable et une faible empreinte mémoire.Ensuite, nous proposons des optimisations pour une méthode plus générale, baséesessentiellement sur une simplification du codage des données, ainsi qu'une implantationmatérielle basées sur ces optimisations. Ces deux contributions peuvent par ailleurss'appliquer à bien d'autres méthodes que celles étudiées dans ce document
Industry has growing needs for so-called “intelligent systems”, capable of not only ac-quire data, but also to analyse it and to make decisions accordingly. Such systems areparticularly useful for video-surveillance, in which case alarms must be raised in case ofan intrusion. For cost saving and power consumption reasons, it is better to perform thatprocess as close to the sensor as possible. To address that issue, a promising approach isto use bio-inspired frameworks, which consist in applying computational biology modelsto industrial applications. The work carried out during that thesis consisted in select-ing bio-inspired feature extraction frameworks, and to optimize them with the aim toimplement them on a dedicated hardware platform, for computer vision applications.First, we propose a generic algorithm, which may be used in several use case scenarios,having an acceptable complexity and a low memory print. Then, we proposed opti-mizations for a more global framework, based on precision degradation in computations,hence easing up its implementation on embedded systems. Results suggest that whilethe framework we developed may not be as accurate as the state of the art, it is moregeneric. Furthermore, the optimizations we proposed for the more complex frameworkare fully compatible with other optimizations from the literature, and provide encourag-ing perspective for future developments. Finally, both contributions have a scope thatgoes beyond the sole frameworks that we studied, and may be used in other, more widelyused frameworks as well
APA, Harvard, Vancouver, ISO, and other styles
19

Alonzo, Flavien. "Méthodes numériques pour le Glioblastome Multiforme et pour la résolution de problèmes inverses autour des systèmes de réaction-diffusion." Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0059.

Full text
Abstract:
Le Glioblastome Multiforme est la tumeur cérébrale gliale la plus fréquente et la plus mortelle chez l’Homme. Les mathématiques ont l’opportunité de pouvoir innover la prise en charge des patients dans la démarche actuelle de médecine personnalisée. Cette thèse propose deux contributions majeures autour de cette thématique. Une premièrecontribution porte sur la modélisation et la simulation la plus réaliste possible de la propagation des cellules tumorales du Glioblastome Multiforme chez un patient après son diagnostic. Ce travail modélise le phénomène d’angiogenèse induite par la tumeur. Un schéma et algorithme numérique sont utilisés pour conserver la positivité des solutions. Enfin, les simulations sont comparées aux connaissances issues de la médecine. Une seconde contribution porte sur l’estimationdes paramètres des modèles de type réactiondiffusion. La méthode développée permet de résoudre des problèmes inverses en résolvant deux systèmes d’équations aux dérivées partielles avec une contrainte fonctionnelle, et non avec des outils statistiques. La résolution numérique d’un tel problème est donnée et évaluée sur deux exemples de modèles avecdes données synthétiques. La méthode permet ainsi de déterminer des paramètres d’un modèle avec des données éparses en temps
Glioblastoma Multiforme is the most frequent and deadliest brain tumour. Mathematics stand as an innovative tool to enhance patient care in the context of personalized medicine. This PhD showcases two major contribution to this theme. A first contribution works on the modelling and simulating of a realistic spreading of the tumour cells in Glioblastoma Multiforme from a patient’s diagnosis. This work models tumour induced angiogenesis. A numerical scheme and algorithmare used to ensure positivity of solutions. Finally, simulations are compared to empirical knowledge from Medicine. A second contribution is on parameter estimation for reaction-diffusion models. The developed method solves inverse problems by solving two partial differential equation systems with a functional constraint, without using statistical tools. Numerical resolution of such problems is given and showcased on two examples of models with synthetic data. This method enables to calibrate parameters from a model using sparse data in time
APA, Harvard, Vancouver, ISO, and other styles
20

Steyer, Jean-Philippe. "Sur une approche qualitative des systemes physiques. Aide en temps reel a la conduite des proceds fermentaires." Toulouse 3, 1991. http://www.theses.fr/1991TOU30251.

Full text
Abstract:
Ce travail s'attache a presenter les principales caracteristiques de la physique qualitative. Nous proposons ensuite les differents aspects methodologiques developpes a savoir: une modelisation par graphe d'influences causales entre les diverses variables du procede; un raisonnement sur l'etat standard dont la finalite consiste a retablir la chaine des causalites des phenomenes observes a partir de l'observation des tendances d'evolution des variables accessibles. Ces concepts, generalisables a un grand nombre de problemes poses par les systemes physiques, sont ensuite adaptes aux procedes biotechnologiques. La finalite est ici de reconstituer l'etat qualitatif de certaines variables internes au procede (niveau microscopique) grace a une analyse et une interpretation des observations externes (variables macroscopiques). Dix operateurs qualitatifs ont ete definis pour traduire les interactions majeures entre les variables du procede. Ces operateurs sont par la suite exprimes selon le formaliste de kheops, un systeme de programmation et d'interpretation de bases de connaissances en logique propositionnelle etendue developpe au sein de notre laboratoire. Durant cette etude, les travaux ont ete testes sur des procedes fermentaires de nature differentes et ont permis d'elaborer deux systemes experts fonctionnant en ligne sur site reel: au stade du laboratoire (650 regles), les essais se sont deroules au centre de transfert en biotechnologie et microbiologie de l'ups/insat sur la croissance de bacteries. Un test a egalement ete effectue sur des levures afin de prouver une certaine robustesse du systeme expert en fonction des microorganismes utilises; a l'echelle industrielle (550 regles), le systeme expert assure une aide a la conduite d'un procede fermentaire de la societe sanofi-chimie (usine d'aramon) utilisant des champignons filamenteux
APA, Harvard, Vancouver, ISO, and other styles
21

Brégier, Romain. "Détection et estimation de pose d'instances d'objet rigide pour la manipulation robotisée." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM039.

Full text
Abstract:
La capacité à détecter des objets dans une scène et à estimer leur pose constitue un préalable essentiel à l'automatisation d'un grand nombre de tâches, qu'il s'agisse d'analyser automatiquement une situation, de proposer une expérience de réalité augmentée, ou encore de permettre à un robot d'interagir avec son environnement.Dans cette thèse, nous nous intéressons à cette problématique à travers le scénario du dévracage industriel, dans lequel il convient de détecter des instances d'un objet rigide au sein d'un vrac et d'estimer leur pose -- c'est-à-dire leur position et orientation -- à des fins de manipulation robotisée.Nous développons pour ce faire une méthode basée sur l'exploitation d'une image de profondeur, procédant par agrégation d'hypothèses générées par un ensemble d'estimateurs locaux au moyen d'une forêt de décision.La pose d'un objet rigide est usuellement modélisée sous forme d'une transformation rigide 6D dans la littérature. Cette représentation se révèle cependant inadéquate lorsqu'il s'agit de traiter des objets présentant des symétries, pourtant nombreux parmi les objets manufacturés.Afin de contourner ces difficultés, nous introduisons une formulation de la notion de pose compatible avec tout objet rigide physiquement admissible, et munissons l'espace des poses d'une distance quantifiant la longueur du plus petit déplacement entre deux poses. Ces notions fournissent un cadre théorique rigoureux à partir duquel nous développons des outils permettant de manipuler efficacement le concept de pose, et constituent le socle de notre approche du problème du dévracage.Les standards d'évaluation utilisés dans l'état de l'art souffrant de certaines limitations et n'étant que partiellement adaptés à notre contexte applicatif, nous proposons une méthodologie d'évaluation adaptée à des scènes présentant un nombre variable d'instances d'objet arbitraire, potentiellement occultées. Nous mettons celle-ci en œuvre sur des données synthétiques et réelles, et montrons la viabilité de la méthode proposée, compatible avec les problématiques de temps de cycle, de performance et de simplicité de mise en œuvre du dévracage industriel
Visual object detection and estimation of their poses -- i.e. position and orientation for a rigid object -- is of utmost interest for automatic scene understanding.In this thesis, we address this topic through the bin-picking scenario, in which instances of a rigid object have to be automatically detected and localized in bulk, so as to be manipulated by a robot for various industrial tasks such as machine feeding, assembling, packing, etc.To this aim, we propose a novel method for object detection and pose estimation given an input depth image, based on the aggregation of local predictions through an Hough forest technique, that is suitable with industrial constraints of performance and ease of use.Overcoming limitations of existing approaches that assume objects not to have any proper symmetries, we develop a theoretical and practical framework enabling us to consider any physical rigid object, thanks to a novel definition of the notion of pose and an associated distance.This framework provides tools to deal with poses efficiently for operations such as pose averaging or neighborhood queries, and is based on rigorous mathematical developments.Evaluation benchmarks used in the literature are not very representative of our application scenario and suffer from some intrinsic limitations, therefore we formalize a methodology suited for scenes in which many object instances, partially occluded, in arbitrary poses may be considered. We apply this methodology on real and synthetic data, and demonstrate the soundness of our approach compared to the state of the art
APA, Harvard, Vancouver, ISO, and other styles
22

Basu, Ananda Shankar. "Modélisation à base de composants de systèmes temps réel hétérogènes en BIP." Grenoble 1, 2008. http://www.theses.fr/2008GRE10249.

Full text
Abstract:
Nous présentons BIP, le formalisme orienté composant pour la construction par composants de systèmes temps-réel hétérogènes. BIP signifie en anglais : behavior, interaction and priority, ce qui se traduit par comportement, interaction et priorité. Ce sont les trois briques de base de ce formalisme. Il considère que les systèmes peuvent être obtenus par composition de composants organisés en trois niveaux ou le plus bas représente le comportement comme un ensemble de transitions étiquetées par des actions et des déclencheurs ; le niveau intermédiaire représente l’ensemble des interactions entre transitions du comportement et le niveau supérieur contient un ensemble de priorités dynamiques. BIP a une rigoureuse sémantique formelle et supporte une méthodologie de construction de systèmes basés sur un opérateur de composition de composants qui est paramétrable. L'utilisation d'un opérateur de composition par couche permets la construction incrémentale de systèmes. Le processus de construction peut être vu comme une séquence de transformations dans un espace à trois dimensions (Comportement X Interaction X Priorité) et fournit la base pour l'étude de la préservation de propriétés lors de transformations entre sous-ensembles de systèmes comme le passage d'un système temporisé à un autre non temporisé. Nous fournissons aussi une sémantique distribuée pour les systèmes avec BIP, en utilisant un modèle d'état partiel et nous avons montré que l'utilisation d'un prédicat auxiliaire appelé oracle permets la préservation de l'équivalence observationnel par rapport à la sémantique centralisé. Nous présentons une implémentation de BIP comme une chaine d'outils qui permettent la modélisation, l'analyse statique et l'exécution de descriptions BIP sur une plateforme dédiée. Trois implémentations de la plateforme d'exécution sont fournies : une version centralisée et énumérative, une version centralisée et symbolique et une version distribuée. Nous illustrons l'utilisation de ses outils à l'aide de deux domaines d'applications majeurs : composition de logiciels et modélisation de systèmes imbriquant le matériel et le logiciel
We present the BIP component framework for component-based construction of real-time systems from heterogeneous components. BIP stands for Behavior, Interaction and Priority, the three main elements for building components. It considers that systems can be obtained by composition of 3-layered components, where the lowest layer represents behavior as a set of transitions with triggers and actions; the intermediate level is the set of the interactions between the transitions of the behavior level, and the upper level is a set of dynamic priority rules. BIP has a rigorous formal semantics, and supports a system construction methodology based on a parameterized composition operator on components. The use of a layered composition operator allows incremental construction. The system construction process can be viewed as a sequence of transformations in a three-dimensional space of Behavior X Interaction X Priority, and provides a basis for the study of property preserving transformations between subclasses of systems such as untimed/timed, asynchronous/synchronous. We also provide a distributed semantics for systems in BIP, using a partial state model, and show the use of an auxiliary predicate called Oracle to preserve observational equivalence with respect to the centralized semantics. We present an implementation of BIP as a tool chain that allows modeling, static analysis and execution of BIP descriptions on a dedicated engine. Three different implementations for the engine have been provided, a centralized enumerative engine, a centralized symbolic engine and a distributed engine. We illustrate the use of the tool chain for two major application domains, Software Componentization, and Modeling mixed hw/sw systems
APA, Harvard, Vancouver, ISO, and other styles
23

Rao, Balappa Shrisha. "Fine structure in cortical connectivity : effects on network dynamics and function Dynamics and orientation selectivity in a cortical model of rodent V1 with excess bidirectional connections Theory of orientation selectivity in random binary networks." Thesis, Sorbonne Paris Cité, 2018. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=2401&f=17357.

Full text
Abstract:
Pas de résumé
The local cortical network connectivity significantly deviates from a random network, giving rise to fine structure at the neuron-to-neuron level. In this study, we have investigated the effects of these fine structures on network dynamics and function. We have investigated two types of fine structure, namely, excess bidirectionality and feature specific connectivity. The study of the effects of excess bidirectionality was conducted in a conductance-based model of layer 2/3 in rodent V1. Through large scale numerical simulations, we showed that excess bidirectional connections in the inhibitory population leads to slower dynamics. Remarkably, we found that bidirectional connections between inhibitory cells are more efficacious in slowing down the dynamics than those between the excitatory cells. Additionally, bidirectional connections between inhibitory cells increases the trial-to-trial variability, while between the excitatory and inhibitory populations it reduces the variability leading to improved coding efficiency. Our results suggest that the strong reciprocal connections between excitatory and PV+ cells that have been experimentally reported can improve coding efficiency by reducing the signal-to-noise ratio. The second part of this work involved an analytical study of a model of layer 2/3 rodent V1 with binary neurons. In our study, we assumed that neurons in layer 4 were selective to stimuli orientation. Our results account for the changes in tuning properties observed during the critical period in mouse V1. Prior to the critical period, the connectivity between pyramidal neurons in the mouse V1 is non-specific. Following previous studies of spiking networks, we analytically demonstrated that with such connectivity, layer 2/3 neurons in our model develop orientation selectivity. A small fraction of strong feature specific connections between pyramidal cells have been reported in the mouse V1 after the critical period. We showed that, in spite of their small number, such connections can substantially impact the tuning of layer 2/3 cells to orientation: excitatory neurons become more selective and through non-specific global changes in their synaptic strengths, the inhibitory cells become more broadly tuned
APA, Harvard, Vancouver, ISO, and other styles
24

Loquet, Jean-Gabriel. "Étude numérique et expérimentale des dommages permanents induits par une particule lourde dans les composants électroniques." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2001. http://www.theses.fr/2001ESAE0015.

Full text
Abstract:
Lors des missions spatiales, les composants électroniques embarqués sont soumis à l'influence du rayonnement ionisant présent en environnement spatial. Un des effets de ce rayonnement est de déposer des charges dans la matière avec laquelle il interagit. On s'interesse à un type de dégradation permanente induite par les ions lourds présents dans le rayonnement cosmique. Le mode de défaillance engendrant ce type de dégradation fait intervenir l'apparition d'un courant de fuite élevé dans un des transistors constituant le circuit intégré impacté. Cette étude a montré, par l'expérimentation et la simulation numérique, que cette défaillance peut être induite par l'impact d'un seul ion lourd : il s'agit donc d'un nouveau type d'événement singulier. La section efficace, correspondant à une étroite zone sensible du transistor située dans la région du bec d'oiseau, a pu être déterminée. Le modèle prévoit une augmentation de la sensibilité pour les composants futurs utilisant une technologie LOCOS, et peut être généralisé à d'autres types d'erreurs impliquant le même mode de défaillance car la modélisation est effectuée au niveau du transistor élémentaire.
APA, Harvard, Vancouver, ISO, and other styles
25

Gouache, Thibault. "Forage alternatif dual de régolithe extra-terrestre : évolution d'une solution bio-inspirée." Toulouse, ISAE, 2011. http://www.theses.fr/2011ESAE0011.

Full text
Abstract:
Identifier des traces de vie sur la Lune ou sur Mars requiert des forages. Les contraintes très fortes sur les systèmes spatiaux et les environnements à faible gravité nuisent aux performances des foreuses rotatives. Une solution innovante a été identifiée chez un insecte qui creuse dans le bois pour déposer ses œufs. Des tests ont montré la faisabilité d’imiter cet insecte pour creuser sans force ou appui extérieur. Ce doctorat poursuit le développement du concept de forage bio-inspiré surtout pour forer dans le régolithe extra-terrestre. Cette nouvelle technique est nommée « Dual Reciprocating Drilling » (DRD). Tout d’abord, des simulants de régolithe lunaire et martien ont été testés ainsi que leurs méthodes de préparation. DRD a été testé pour la première fois dans du régolithe. L’importance du dérapage (slippage en anglais) a été identifiée. Des mécanismes de pénétration du régolithe par le DRD ont été proposés. Une seconde expérience a permis de raffiner les mécanismes de pénétration du régolithe. L’importance des mouvements latéraux lors du forage a été identifiée. Finalement un code utilisant les éléments discrets a été implémenté sur des GPU (Graphical Processing Units) permettant la première simulation d’interaction tête de forage - régolithe avec plus d’un million de particules. Avant ces travaux, DRD était vu comme capable de développer sa propre force de progression. Dans le régolithe DRD a besoin d’une force externe pour progresser. Cependant DRD permet de réduire cette force (grâce aux mouvements latéraux). Une proposition d’architecture système reflétant cette nouvelle compréhension a été faite.
APA, Harvard, Vancouver, ISO, and other styles
26

Staub, Matthias. "Approche multi-échelle du comportement bio-mécanique d'un déchet non dangereux." Grenoble, 2010. http://www.theses.fr/2010GRENU025.

Full text
Abstract:
Cette thèse porte sur une étude de l'évolution biomécanique de déchets non dangereux selon différentes conditions de prétraitement et d'opération à différentes échelles. Après une introduction aux enjeux et aux données majeures concernant la gestion des déchets, leur stockage et les évolutions en cours (Chapitre I), la caractérisation du milieu déchet est abordée (Chapitre II). Ce milieu, triphasique et donc généralement non saturé en eau, nécessite une étude et des moyens d'investigation particuliers. De nombreuses études antérieures ont démontré la nécessité d'études couplées dédiées aux déchets. Pour ce faire, il est également nécessaire d'adapter un certain nombre de méthodes métrologiques aux déchets (Chapitre III). Ainsi, des méthodes de métrologie spécifique (humidité, masse volumique. . . ) sont étudiées et validées pour leur application à ce milieu, de l'échelle du laboratoire jusqu'à celle du site. Une plateforme d'essai constituée de quatre pilotes semi-industriels conçus avec Veolia Environnement Recherche & Innovation a été utilisé au LTHE pour une étude biomécanique à une échelle suffisante et en conditions très proches de celles rencontrées sur site (compression, température, humidité. . . ) (Chapitre IV). Les résultats obtenus permettent de caractériser la biodégradation en termes de suivis et de bilans, ainsi que d'en identifier les leviers principaux en fonction des conditions de prétraitement et d'opération. Enfin, une exploitation de ces résultats ainsi que d'autres résultats à l'échelle du laboratoire et du site ont permis de démontrer le couplage biomécanique et de proposer un modèle du tassement des déchets (Chapitre V)
This research addresses the biomechanical evolution of municipal solid waste subject to different pretreatment and operational conditions at different scales. After an introduction to the major stakes and figures related to waste management, waste landfilling and its evolution (Chapter I), the characterization of the waste medium is addressed (Chapter II). This triphasic unsaturated medium requires a dedicated scientific approach as well as specific investigation experiments. Several past investigations have demonstrated the need for specific coupled studies of waste. To do so, it seems also essential to adapt measurement methods (moisture, density. . . ) to the waste medium (Chapter III). Hence, measurement techniques have been studied in detail and validated for their use in this medium at scales ranging from the laboratory to the site. An experimental platform consisting of four pilot cells at a semi-industrial scale, designed with Veolia Environnement Recherche & Innovation, has been used at LTHE to investigate waste biomechanics at a sufficient scale and under site-near conditions (compression, temperature, moisture. . . ) (Chapter IV). The results enable to characterize biodegradation in terms of daily monitoring as well as final budgets, but also to identify the major drivers of biodegradation depending on the pre-treatment and operational conditions. Finally, these results and other laboratory- and site-scale results have been used to demonstrate the biomechanical coupling and to propose a model for waste settlement (Chapter V)
APA, Harvard, Vancouver, ISO, and other styles
27

Shahsavari, Mahyar. "Unconventional computing using memristive nanodevices : from digital computing to brain-like neuromorphic accelerator." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10203/document.

Full text
Abstract:
On estime que le nombre d'objets connectés à l'Internet atteindra 50 à 100 milliards en 2020. La recherche s'organise en deux champs principaux pour répondre à ce défi : l'internet des objets et les grandes masses de données. La demande en puissance de calcul augmente plus vite que le développement de nouvelles architectures matérielles en particulier à cause du ralentissement de la loi de Moore. La raison principale en est le mur de la mémoire, autrement appelé le goulet d'étranglement de Von Neumann, qui vient des différences de vitesse croissantes entre le processeur et la mémoire. En conséquence, il y a besoin d'une nouvelle architecture matérielle rapide et économe en énergie pour répondre aux besoins énormes de puissance de calcul.Dans cette thèse, nous proposons de nouvelles architectures pour les processeurs de prochaine génération utilisant des nanotechnologies émergentes telles que les memristors. Nous étudions des méthodes de calcul non conventionnelles aussi bien numériques qu'analogiques. Notre contribution principale concerne les réseaux de neurones à impulsion (RNI) ou architectures neuromorphiques. Dans la première partie de la thèse, nous passons en revue les memristors existants, étudions leur utilisation dans une architecture numérique à base de crossbars, puis introduisons les architectures neuromorphiques. La deuxième partie contient la contribution principale~: le développement d'un simulateur d'architectures neuromorphiques (N2S3), l'introduction d'un nouveau type de synapse pour améliorer l'apprentissage, une exploration des paramètres en vue d'améliorer les RNI, et enfin une étude de la faisabilité des réseaux profonds dans les RNI
By 2020, there will be 50 to 100 billion devices connected to the Internet. Two domains of hot research to address these high demands of data processing are the Internet of Things (IoT) and Big Data. The demands of these new applications are increasing faster than the development of new hardware particularly because of the slowdown of Moore's law. The main reason of the ineffectiveness of the processing speed is the memory wall or Von Neumann bottleneck which is coming from speed differences between the processor and the memory. Therefore, a new fast and power-efficient hardware architecture is needed to respond to those huge demands of data processing. In this thesis, we introduce novel high performance architectures for next generation computing using emerging nanotechnologies such as memristors. We have studied unconventional computing methods both in the digital and the analog domains. However, the main focus and contribution is in Spiking Neural Network (SNN) or neuromorphic analog computing. In the first part of this dissertation, we review the memristive devices proposed in the literature and study their applicability in a hardware crossbar digital architecture. At the end of part~I, we review the Neuromorphic and SNN architecture. The second part of the thesis contains the main contribution which is the development of a Neural Network Scalable Spiking Simulator (N2S3) suitable for the hardware implementation of neuromorphic computation, the introduction of a novel synapse box which aims at better learning in SNN platforms, a parameter exploration to improve performance of memristor-based SNN, and finally a study of the application of deep learning in SNN
APA, Harvard, Vancouver, ISO, and other styles
28

Mercier, Michael. "Contribution to High Performance Computing and Big Data Infrastructure Convergence." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM031/document.

Full text
Abstract:
La quantité de données produites dans le monde scientifique comme dans le monde commercial, est en constante augmentation. Le domaine du traitement de donnée à large échelle, appelé “Big Data”, a été inventé pour traiter des données sur de larges infrastructures informatiques distribuées. Mais l’intégration de système Big Data sur des machines de calcul intensif pose de nombreux problèmes. En effet, les gestionnaires de ressources ainsi que les systèmes de fichier de super calculateurs ne sont pas penser pour ce type de travail. Le sujet de cette thèse est de trouver la meilleure approche pour faire interagir ces deux gestionnaires de ressources et de traiter les différents problèmes soulevés par les mouvements de données et leur ordonnancement
The amount of data produced, either in the scientific community and the commercial world, is constantly growing. The field of Big Data has emerged to handle a large amount of data on distributed computing infrastructures. High-Performance Computer (HPC) infrastructures are made for intensive parallel computations. The HPC community is also facing more and more data because of new high definition sensors and large physics apparatus. The convergence of the two fields is currently happening. In fact, the HPC community is already using Big Data tools, but they are not integrated correctly, especially at the level of the file system and the Resources and Job Management System (RJMS).In order to understand how we can leverage HPC clusters for Big Data usage, and what are the challenges for the HPC infrastructures, we have studied multiple aspects of the convergence: we have made a survey on the software provisioning methods, with a focus on data-intensive applications. We also propose a new RJMS collaboration technique called BeBiDa which is based on 50 lines of code whereas similar solutions use at least 1000x more. We evaluate this mechanismon real conditions and in a simulation with our simulator Batsim
APA, Harvard, Vancouver, ISO, and other styles
29

Vernay, Rémi. "Etudes d'objets combinatoires : applications à la bio-informatique." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00668134.

Full text
Abstract:
Cette thèse porte sur des classes d'objets combinatoires, qui modélisent des données en bio-informatique. Nous étudions notamment deux méthodes de mutation des gènes à l'intérieur du génome : la duplication et l'inversion. Nous étudions d'une part le problème de la duplication-miroir complète avec perte aléatoire en termes de permutations à motifs exclus. Nous démontrons que la classe de permutations obtenue avec cette méthode après p duplications à partir de l'identité est la classe de permutations qui évite les permutations alternées de longueur 2p + 1. Nous énumérons également le nombre de duplications nécessaires et suffisantes pour obtenir une permutation quelconque de longueur n à partir de l'identité. Nous proposons également deux algorithmes efficaces permettant de reconstituer deux chemins différents entre l'identité et une permutation déterminée. Nous donnons enfin des résultats connexes sur d'autres classes proches. La restriction de la relation d'ordre < induite par le code de Gray réfléchi à l'ensemble des compositions et des compositions bornées induit de nouveaux codes de Gray pour ces ensembles. La relation d'ordre < restreinte à l'ensemble des compositions bornées d'un intervalle fournit encore un code de Gray. L'ensemble des ncompositions bornées d'un intervalle généralise simultanément l'ensemble produit et l'ensemble des compositions d'un entier et donc la relation < définit de façon unifiée tous ces codes de Gray. Nous réexprimons les codes de Gray de Walsh et Knuth pour les compositions (bornées) d'un entier à l'aide d'une unique relation d'ordre. Alors, le code de Gray deWalsh pour des classes de compositions et de permutations devient une sous-liste de celui de Knuth, lequel est à son tour une sous-liste du code de Gray réfléchi.
APA, Harvard, Vancouver, ISO, and other styles
30

Hu, Dawei. "Contribution à l’étude du comportement mécanique et hydromécanique d’une roche endommagée." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10150/document.

Full text
Abstract:
Cette thèse est consacrée aux études expérimentales et numériques du comportement mécanique et poromécanique et de l’évolution de la perméabilité du grès en prenant en compte l’anisotropie du matériau. Après une analyse par la microscopie électronique à balayage (MEB) et les rayons X, les échantillons sont utilisés pour réaliser des essais de compression hydrostatique et de compression triaxiale sous différentes pressions de confinement. Les évolutions des coefficients de Biot et de la perméabilité sont mesurées respectivement et étudiées en prenant en compte le comportement mécanique. Un modèle élastoplastique couplé à l’endommagement en se basant sur l'approche discrète est proposé et appliqué aux grés secs. Les essais en compression sont simulés, l’évolution et la distribution de la variable d’endommagement et de l’écrouissage plastique sont analysées. Le modèle proposé est validé de nouveau par les simulations des essais réalisés (y compris le comportement mécanique, les coefficients de Biot et la perméabilité) sur des échantillons saturés. Une très bonne concordance est obtenue entre les prédictions et les données expérimentales. Enfin, on développe un modèle anisotropique poroplastique couplé avec l’endommagement afin de décrire les propriétés poromécaniques du grès saturé. Le modèle proposé est appliqué pour décrire le comportement du matériau dans les essais triaxiaux en condition non-drainée, et dans les essais triaxiaux en appliquant une pression interstitielle. En général, la aussi nous obtenons une bonne concordance entre modélisation et expérimentation
This thesis presents the laboratory and numerical investigations on anisotropic mechanical, poromechanical and fluid transport behavior of sandstone. After the X-ray and SEM tests, the samples were stressed under triaxial loading to study the initial and stress-induced mechanical behavior. The evolution of anisotropic Biot’s coefficients and axial permeability are also investigated and related to mechanical behavior. A plastic damage model is presented based on discrete approach. The proposed model is applied to simulate the mechanical behavior of dry sandstone under different loading conditions, the evolution and distribution of damage variable and plastic hardening variable are also discussed. Furthermore, the proposed model is applied to simulate the previous experimental results (including mechanical behavior, Biot's coefficients and permeability) of saturated sandstones. The comparisons between the numerical result and test data show a good performance of the present model. Finally, an anisotropic poroplastic damage model is developed to describe the poromechanical behavior of saturated sandstone. The comparisons between numerical simulation and experimental data is given for the triaxial compression tests under drained and undrained condition, the tests of strain response to pore pressure increment is also simulated, a good accordance is obtained
APA, Harvard, Vancouver, ISO, and other styles
31

Hemmati, Sahar. "Etude de l'Interaction Sol-Végétation-Atmosphère avec une approche couplée Thermo-Hydro-Mécanique." Phd thesis, Ecole des Ponts ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005609.

Full text
Abstract:
L'objectif de ce travail est d'étudier, par une approche numérique bidimensionnelle, l'effet de l'interaction sol-végétation-atmosphère et de l'extraction par des racines d'arbres isolés sur le comportement thermo-hydro-mécanique des sols argileux sensibles au retrait-gonflement. Le cas de l'interaction sol-végétation-atmosphère a été étudié en se basant sur les données obtenues sur le site de Mormoiron instrumenté par le BRGM avec des sondes capacitives Humitub et des extensomètres. Afin d'exploiter les données de teneur en eau enregistrée, on a commencé par un travail expérimental d'étalonnage en laboratoire. L'étalonnage a été réalisé sur différents matériaux. L'influence de la variation de température et du type de sol sur la mesure de teneur en eau a été étudiée. Les résultats semblent montrer que les sondes capacitives comme Humitub ne sont pas adaptées à des sols argileux comme l'argile de Mormoiron. Les études bibliographiques ont aussi montré la dépendance importante des mesures effectuées par cette méthode capacitive vis-à-vis de la fréquence, surtout dans le cas des sols ayant une capacité d'échange cationique élevée. Un modèle bidimensionnel de l'interaction sol-végétation-atmosphère et un modèle bidimensionnel d'extraction d'eau par des racines ont été développés afin de décrire les effets climatiques et végétaux sur le comportement thermo-hydro-mécanique d'un milieu non saturé. Ces modèles ont été implantés dans le code de calcul aux éléments finis θ-STOCK (Gatmiri, 1997). La vérification du modèle de l'interaction sol-végétation atmosphère a été faite par le biais d'une comparaison des résultats de calcul avec les données in situ disponibles sur le site de Mormoiron et les données météorologiques de la station Carpentras. Les calculs ont été ensuite étendus à des périodes particulièrement sèches et particulièrement humides. La modélisation d'une période plus longue de 20 ans a été également effectuée. Le modèle d'extraction par des racines a été vérifié sur quelques études de cas rapportés par Biddle (1998), en utilisant les données météorologiques de la station de Londres et en considérant l'effet de l'interaction sol-végétation-atmosphère sur la surface du sol. L'ensemble des résultats obtenus montre la pertinence de l'approche numérique adoptée. Cette étude de modélisation a été finalement complétée en considérant une fondation superficielle d'une maison. Les résultats ont montré clairement le rôle de la présence d'un arbre, ainsi que l'importance de sa distance de la maison sur les tassements du sol.
APA, Harvard, Vancouver, ISO, and other styles
32

Zaourar, Lilia Koutchoukali. "Recherche opérationnelle et optimisation pour la conception testable de circuits intégrés complexes." Grenoble, 2010. http://www.theses.fr/2010GRENM055.

Full text
Abstract:
Le travail de cette thèse est à l'interface des dom aines de la recherche opérationnelle et de la micro -électronique. Il traite de l'utilisation des techniques d'optimisation combinatoire pour la DFT (Design For Test) des Circuits Intégrés (CI). Avec la croissance rapide et la complexité des CI actuels, la qualité ainsi que le coût du test sont devenus des paramètres importants dans l'industrie des semi-conducteurs. Afin de s'assurer du bon fonctionnement du CI, l'étape de test est plus que jamais une étape essentielle et délicate dans le processus de fabrication d'un CI. Pour répondre aux exigences du marché, le test doit être rapide et efficace dans la révélation d'éventuels défauts. Pour cela, il devient incontournable d'appréhender la phase de test dès les étapes de conception du CI. Dans ce contexte, la conception testable plus connue sous l'appellation DFT vise à améliorer la testabilité des CI. Plusieurs problèmes d'optimisation et d'aide à la décision découlent de la micro-électronique. La plupart de ces travaux traitent des problèmes d'optimisation combinatoire pour le placement et routage des circuits. Nos travaux de recherche sont à un niveau de conception plus amont, la DFT en présynthèse au niveau transfert de registres ou RTL (Register Transfer Level). Cette thèse se découpe en trois parties. Dans la première partie nous introduisons les notions de bases de recherche opérationnelle, de conception et de test des CI. La démarche suivie ainsi que les outils de résolution utilisés dans le reste du document sont présentés dans cette partie. Dans la deuxième partie, nous nous intéressons au problème de l'optimisation de l'insertion des chaîne s de scan. A l'heure actuelle, le "scan interne" est une des techniques d'amélioration de testabilité ou de DFT les plus largement adoptées pour les circuits intégrés numériques. Il s'agit de chaîner les éléments mémoires ou bascules du circuit de sorte à former des chaînes de scan qui seront considérées pendant la phase de test comme points de contrôle et d'observation de la logique interne du circuit. L'objectif de notre travail est de développer des algorithmes permettant de générer pour un CI donné et dès le niveau RTL des chaînes de scan optimales en termes de surface, de temps de test et de consommation en puissance, tout en respectant des critères de performance purement fonctionnels. Ce problème a été modélisé comme la recherche de plus courtes chaînes dans un graphe pondéré. Les méthodes de résolution utilisées sont basées sur la recherche de chaînes hamiltoniennes de longueur minimale. Ces travaux ont été réalisés en collaboration avec la start-up DeFacTo Technologies. La troisième partie s'intéresse au problème de partage de blocs BIST (Built In Self Test) pour le test des mémoires. Le problème peut être formulé de la façon suivante : étant données des mémoires de différents types et tailles, ainsi que des règles de partage des colliers en série et en parallèle, il s'agit d'identifier des solutions au problème en associant à chaque mémoire un collier. La solution obtenue doit minimiser à la fois la surface, la consommation en puissance et le temps de test du CI. Pour résoudre ce problème, nous avons conçu un prototype nommé Memory BIST Optimizer (MBO). Il est constitué de deux phases de résolution et d'une phase de validation. La première phase consiste à créer des groupes de compatibilité de mémoires en tenant compte des règles de partage et d'abstraction des technologies utilisées. La deuxième phase utilise les algorithmes génétiques pour l'optimisation multi-objectifs afin d'obtenir un ensemble de solutions non dominées. Enfin, la validation permet de vérifier que la solution fournie est valide. De plus, elle affiche l'ensemble des solutions à travers une interface graphique ou textuelle. Cela permet à l'utilisateur de choisir la solution qui lui correspond le mieux. Actuellement, l'outil MBO est intégré dans un flot d'outils à ST-microelectronics pour une utilisation par ses clients
This thesis is a research contribution interfacing operations research and microelectronics. It considers the use of combinatorial optimization techniques for DFT (Design For Test) of Integrated Circuits (IC). With the growing complexity of current IC both quality and cost during manufacturing testing have become important parameters in the semiconductor industry. To ensure proper functioning of the IC, the testing step is more than ever a crucial and difficult step in the overall IC manufacturing process. To answer market requirements, chip testing should be fast and effective in uncovering defects. For this, it becomes essential to apprehend the test phase from the design steps of IC. In this context, DFT techniques and methodologies aim at improving the testability of IC. In previous research works, several problems of optimization and decision making were derived from the micro- electronics domain. Most of previous research contributions dealt with problems of combinatorial optimization for placement and routing during IC design. In this thesis, a higher design level is considered where the DFT problem is analyzed at the Register Transfer Level (RTL) before the logic synthesis process starts. This thesis is structured into three parts. In the first part, preliminaries and basic concepts of operations research, IC design and manufacturing are introduced. Next, both our approach and the solution tools which are used in the rest of this work are presented. In the second part, the problem of optimizing the insertion of scan chains is considered. Currently, " internal scan" is a widely adopted DFT technique for sequential digital designs where the design flip-flops are connected into a daisy chain manner with a full controllability and observability from primary inputs and outputs. In this part of the research work, different algorithms are developed to provide an automated and optimal solution during the generation of an RTL scan architecture where several parameters are considered: area, test time and power consumption in full compliance with functional performance. This problem has been modelled as the search for short chains in a weighted graph. The solution methods used are based on finding minimal length Hamiltonian chains. This work was accomplished in collaboration with DeFacTo Technologies, an EDA start-up close to Grenoble. The third part deals with the problem of sharing BIST (Built In Self Test) blocks for testing memories. The problem can be formulated as follows: given the memories with various types and sizes, and sharing rules for series and parallel wrappers, we have to identify solutions to the problem by associating a wrapper with each memory. The solution should minimize the surface, the power consumption and test time of IC. To solve this problem, we designed a prototype called Memory BIST Optimizer (MBO). It consists of two steps of resolution and a validation phase. The first step creates groups of compatibility in accordance with the rules of abstraction and sharing that depend on technologies. The second phase uses genetic algorithms for multi-objective optimization in order to obtain a set of non dominated solutions. Finally, the validation verifies that the solution provided is valid. In addition, it displays all solutions through a graphical or textual interface. This allows the user to choose the solution that fits best. The tool MBO is currently integrated into an industrial flow within ST-microelectronics
APA, Harvard, Vancouver, ISO, and other styles
33

Michaud, Dorian. "Indexation bio-inspirée pour la recherche d'images par similarité." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2288/document.

Full text
Abstract:
La recherche d'images basée sur le contenu visuel est un domaine très actif de la vision par ordinateur, car le nombre de bases d'images disponibles ne cesse d'augmenter.L’objectif de ce type d’approche est de retourner les images les plus proches d'une requête donnée en terme de contenu visuel.Notre travail s'inscrit dans un contexte applicatif spécifique qui consiste à indexer des petites bases d'images expertes sur lesquelles nous n'avons aucune connaissance a priori.L’une de nos contributions pour palier ce problème consiste à choisir un ensemble de descripteurs visuels et de les placer en compétition directe. Nous utilisons deux stratégies pour combiner ces caractéristiques : la première, est pyschovisuelle, et la seconde, est statistique.Dans ce contexte, nous proposons une approche adaptative non supervisée, basée sur les sacs de mots et phrases visuels, dont le principe est de sélectionner les caractéristiques pertinentes pour chaque point d'intérêt dans le but de renforcer la représentation de l'image.Les tests effectués montrent l'intérêt d'utiliser ce type de méthodes malgré la domination des méthodes basées réseaux de neurones convolutifs dans la littérature.Nous proposons également une étude, ainsi que les résultats de nos premiers tests concernant le renforcement de la recherche en utilisant des méthodes semi-interactives basées sur l’expertise de l'utilisateur
Image Retrieval is still a very active field of image processing as the number of available image datasets continuously increases.One of the principal objectives of Content-Based Image Retrieval (CBIR) is to return the most similar images to a given query with respect to their visual content.Our work fits in a very specific application context: indexing small expert image datasets, with no prior knowledge on the images. Because of the image complexity, one of our contributions is the choice of effective descriptors from literature placed in direct competition.Two strategies are used to combine features: a psycho-visual one and a statistical one.In this context, we propose an unsupervised and adaptive framework based on the well-known bags of visual words and phrases models that select relevant visual descriptors for each keypoint to construct a more discriminative image representation.Experiments show the interest of using this this type of methodologies during a time when convolutional neural networks are ubiquitous.We also propose a study about semi interactive retrieval to improve the accuracy of CBIR systems by using the knowledge of the expert users
APA, Harvard, Vancouver, ISO, and other styles
34

Alric, Matthieu. "Conception et modélisation modulaire d'un robot bio-inspiré extensible pour l'accès aux tumeurs dans le cerveau." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00724718.

Full text
Abstract:
Intégrés dans un projet de développement d'un système multit-robots de neurochirurgie mini-invasive pour l'ablation de tumeurs, ces travaux ont pour objectif la conception et modélisation d'un robot déployable dans le cerveau, selon des trajectoires curvilignes, sans espace libre autour de sa structure et sans guide naturel pour aider à sa progression. Après définition de la tâche de déploiement, un état de l'art recense un large panel de concepts et une évaluation sélectionne un concept continu bio-inspiré des trompes d'éléphant. La solution modulaire du robot est définie et modélisée géométriquement en associant une chaîne cinématique aux mobilités continues du robot. Une statégie de déploiement, reposant sur une succession ordonnée d'extensions/rétractions locales pour une élongation itérative du robot est formalisée pour le cas générique à N modules, puis validée par des plans de simulations de robots ayant 1 à 3 modules (erreur de suivi inférieure à un mm). Sur un modèle d'étude de gels d'agar (texture proche du cerveau), les efforts de pénétration du robot dans le cerveau sont estimés, puis la conception CAO et la programmation d'un démonstrateur à ressorts sont réalisées. Une interface homme/machine, simulant et commandant le robot, est programmée et des tests sont effectués pour valider certains aspects du déploiement. Un deuxième démonstrateur actionné pneumatiquement est à finaliser pour procéder à une étude comparative des deux prototypes. Même si des perspectives d'amélioration restent à explorer, les résultats obtenus sont encourageants. Un travail collaboratif entre spécialistes de différents domaines devrait conduire à l'optimisation de ce robot de déploiement.
APA, Harvard, Vancouver, ISO, and other styles
35

Tremblay-Boucher, Vincent. "FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réel." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6215.

Full text
Abstract:
Ce mémoire débute par un survol de l'état de l’art des méthodes de compositions musicales assistées par ordinateur (MCMAO). À l’aide d'un ensembles critères permettant l’évaluation des méthodes de compositions musicales assistées par ordinateur, on identifie une technique particulièrement prometteuse. Il s’agit d ’un compositeur statistique, présenté par Hoffman et al. en 2008, utilisant les "mel-frquecy cepstral coefficients" (MFCC), un prétraitement inspiré des techniques en reconnaissance de parole. Toutefois, cette technique présente diverses limitations, comme la qualité de reconstruction des signaux, qui l’empêche d'être utilisée pour composer de la musique utilisable professionnellement. Ainsi, ce mémoire tente de bonifier la méthode de composition musicale assistée par ordinateur de Hoffman et al. en remplaçant la technique MFCC d'analyse/synthèse du signal par une technique novatrice d'analyse/synthèse des signaux sonores nommée "Fast Locally competitive algorithm for audio" (FLCAA). Celle-ci permet une analyse perceptuelle parcimonieuse, en temps réel, ayant une bonne résolution fréquencielle et une bonne résolution temporelle. De plus le FLCAA permet une reconstruction robuste de bonne qualité également en temps réel. L’analyse est constituée de deux parties distinctes. La première consiste à utiliser un prétraitement inspiré de l’audition pour transformer le signal sonore afin d'obtenir une représentation cochléaire. Concrètement, la transformation d'analyse est accomplie à l’aide d'un filtrage par banc de filtres cochléaires combiné à un mécanisme de fenêtre coulissante. Le banc de filtres utilisé est composé de filtres cochléaires passe-bande à réponse impulsionnelle finie, de type "rounded exponential" (RoExp). La deuxième étape consiste à coder la représentation cochléaire de manière parcimonieuse afin d'augmenter la résolution spatiale et temporelle pour mettre en évidence certaines caractéristiques du signal comme les fréquences fondamentales, l’information contenue dans les basses fréquences et les signaux transitoires. Cela est fait, en intégrant un réseau de neurones (nommé LCA) utilisant les mécanismes d'inhibition latérale et de seuillage. À partir des coefficients de la représentation perceptuelle, il est possible d'effectuer la transformation de synthèse en utilisant une technique de reconstruction novatrice qui est expliqué en détail dans ce mémoire.
APA, Harvard, Vancouver, ISO, and other styles
36

Kabalan, Hassan. "Minimizing Time Delay between Mobiles Exchanging Data in an Industrial Wireless Network Cell." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0026.

Full text
Abstract:
Le but de cette thèse concerne de minimiser le temps d’échange entre les objets mobile dans un environnement industriel. Dans la première partie une étude bibliographique concernant les problèmes d’échange entre les mobiles sera présentée. Dans la suite nous avons comparé par simulation sous NS2 (Network Simulator 2) plusieurs modèles de propagation afin de sélectionner le modèle le plus adapté à notre milieu industriel. Les résultats des simulations ont montré que le modèle pr1238 est le modèle le plus performant. Ce modèle de propagation sera utilisé ensuite pour optimiser l’algorithme d’accès « back-off ». L’algorithme d’accès « back-off » utilisé dans les réseaux 802. 11 souffre de plusieurs problèmes : collision entre les données, retard de transmission des données échangées, qui est très contraignant dans les applications de temps réel. Pour surmonter ces problèmes, nous avons proposé une nouvelle méthode. Cette nouvelle méthode repose en premier lieu sur la modification des paramètres de l’algorithme de « back-off » en cas de succès et de collision afin de réduire le temps d’accès. En deuxième lieu, elle utilise un réseau de neurones pour augmenter la précision sur les paramètres du modèle
The purpose of this study is to discuss the exchanges between mobiles moving in an industrial environment. To reach this study, a simulation approach has been chosen in order reach this study. This novel method aimed to minimize the exchange time between mobiles within an 802. 11 cell. The first step of our study represents the main points arising from this choice. Initially, we described the main existing models of spread and constraints of radio propagation. The selection of relevant model propagation for the selected industrial site is based on several measurements in domain indoor. The implementation of the ITU Pr1238 model was performed by adjusting the parameters of the various models; we decided to select the model recommended by the ITU under reference Pr1238 as our model that is used for the industrial by the NS2 Simulator. The second step was to come up with a modified method of the DCF in order to minimize the necessary time so that all mobiles within the same cell of an 802. 11b network can exchange the shared information during their co-operation. The optimization of the exchanges time between mobiles was carried out by modifying the binary exponential aspect of the Back-off algorithm as a first phase to reduce the access time to the radio medium. Whereas in the second phase this modified and enhanced BEB method was supported by a Neural Network Function to give us precise output parameters. Those outputs will be learned by the Neural Network Function and will be used in the NS2 simulation to get the new results of the time delay to compare them with the standard BEB method results
APA, Harvard, Vancouver, ISO, and other styles
37

Koch, Mathilde. "Computational modeling to design and analyze synthetic metabolic circuits." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS467/document.

Full text
Abstract:
Les buts de cette thèse sont doubles, et concernent les circuits métaboliques synthétiques, qui permettent de détecter des composants chimiques par transmission de signal et de faire du calcul en utilisant des enzymes. La première partie a consisté à développer des outils d’apprentissage actif et par renforcement pour améliorer la conception de circuits métaboliques et optimiser la biodétection et la bioproduction. Pour atteindre cet objectif, un nouvel algorithme (RetroPath3.0) fondé sur une recherche arborescente de Monte Carlo guidée par similarité est présenté. Cet algorithme, combiné à des règles de réaction apprises sur des données et des niveaux différents de promiscuité enzymatique, permet de focaliser l’exploration sur les composés et les chemins les plus prometteurs en bio-rétrosynthèse. Les chemins obtenus par rétrosynthèse peuvent être implémentés dans des cellules ou des systèmes acellulaires. Afin de concevoir le meilleur milieu pour optimiser la productivité du système, une méthode d’apprentissage actif qui explore efficacement l’espace combinatoire des composants du milieu a été développée.La deuxième partie a consisté à développer des méthodes d’analyse, pour générer des connaissances à partir de données biologiques, et modéliser les réponses de biocapteurs. Dans un premier temps, l’effet du nombre de copies de plasmides sur la sensibilité d’un biocapteur utilisant un facteur de transcription a été modélisé. Ensuite, en utilisant des systèmes acellulaires qui permettent un meilleur contrôle des variables expérimentales comme la concentration d’ADN, l’utilisation des ressources a été modélisée pour assurer que notre compréhension actuelle des phénomènes sous-jacents est suffisante pour rendre compte du comportement du circuit, en utilisant des modèles empiriques ou mécanistiques. Couplés aux outils de conception de circuits métaboliques, ces modèles ont ensuite permis de développer une nouvelle approche de calcul biologique, appelée perceptrons métaboliques.Dans l’ensemble, cette thèse présente des outils de conception et d’analyse pour les circuits métaboliques synthétiques. Ces outils ont été utilisés pour développer une nouvelle méthode permettant d’effectuer des calculs en biologie synthétique
The aims of this thesis are two-fold, and centered on synthetic metabolic circuits, which perform sensing and computation using enzymes.The first part consisted in developing reinforcement and active learning tools to improve the design of metabolic circuits and optimize biosensing and bioproduction. In order to do this, a novel algorithm (RetroPath3.0) based on similarity-guided Monte Carlo Tree Search to improve the exploration of the search space is presented. This algorithm, combined with data-derived reaction rules and varying levels of enzyme promiscuity, allows to focus exploration on the most promising compounds and pathways for bio-retrosynthesis. As retrosynthesis-based pathways can be implemented in whole cell or cell-free systems, an active learning method to efficiently explore the combinatorial space of components for rational media optimization was also developed, to design the best media maximizing cell-free productivity.The second part consisted in developing analysis tools, to generate knowledge from biological data and model biosensor response. First, the effect of plasmid copy number on sensitivity of a transcription-factor based biosensor was modeled. Then, using cell-free systems allowing for broader control over the experimental factors such as DNA concentration, resource usage was modeled to ensure our current knowledge of underlying phenomenons is sufficient to account for circuit behavior, using either empirical models or mechanistic models. Coupled with metabolic circuit design, those models allowed us to develop a new biocomputation approach, called metabolic perceptrons.Overall, this thesis presents tools to design and analyse synthetic metabolic circuits, which are a novel way to perform computation in synthetic biology
APA, Harvard, Vancouver, ISO, and other styles
38

Hedayat, Sara. "Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I039/document.

Full text
Abstract:
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information.L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale
Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing.More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants)
APA, Harvard, Vancouver, ISO, and other styles
39

Noé, Laurent. "Recherche de similarités dans les séquences d'ADN : modèles et algorithmes pour la conception de graines efficaces." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011482.

Full text
Abstract:
Les méthodes de recherche de similarités les plus fréquemment utilisées dans le cadre de la génomique sont heuristiques.
Elles se basent sur un principe de filtrage du texte qui permet de localiser les régions potentiellement similaires.
Dans cette thèse, nous proposons de nouvelles définitions de filtres pour la recherche de similarités sur les séquences génomiques et des algorithmes associés pour mesurer leurs caractéristiques.
Plus précisément, nous avons étudié le modèle des graines espacées, et proposé un algorithme d'évaluation de l'efficacité des graines sur des similarités d'une classe particulière (similarités dites homogènes). Nous avons également développé un algorithme général pour la mesure de l'efficacité des graines, ainsi qu'un nouveau modèle de graine appelé graine sous-ensemble, extension du modèle des graines espacées. Enfin nous donnons, dans le cadre du filtrage sans perte, une extension à l'aide de graines multiples, que nous analysons et appliquons au problème de la conception d'oligonucléotides.
Nous avons réalisé et donnons accès à des outils pour la conception des filtres, ainsi que pour la recherche de similarités.
APA, Harvard, Vancouver, ISO, and other styles
40

Garnier, Simon. "Décisions collectives dans des systèmes d'intelligence en essaim." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/386/.

Full text
Abstract:
A travers une approche mêlant éthologie et robotique, expériences et simulations, nous nous sommes intéressés aux mécanismes d'auto-organisation qui permettent aux insectes sociaux de prendre collectivement des décisions. Basés sur un mimétisme comportemental fort, ces mécanismes conduisent la plupart du temps les individus au sein d'un groupe à adopter un choix commun. Nous nous sommes attachés à comprendre en particulier l'impact de la structure physique de l'environnement sur le choix final effectué par le groupe. Nos résultats montrent qu'une asymétrie dans cette structure sera amplifiée par le processus d'auto-organisation sous-jacent et conduira le groupe à sélectionner une alternative particulière dans la majorité des cas. En conséquence, il est primordial de prendre en compte l'interaction entre le comportement du groupe et la structure de l'environnement lors de l'étude des sociétés animales et lors de la conception de systèmes auto-organisés artificiels
Through an approach mixing ethology and robotics, experiments and simulations, we were interested in two self-organizing mechanisms used by two social insect species to collectively make decisions. Based on behavioural mimicry, these mechanisms most of the time lead individuals belonging to a group to reach a consensus. We studied in particular the influence of the physical structure of the environment on the final choice of the group. Our results shows that an asymmetry in the structure of the environment can be amplified by the underlying self-organizing process and therefore leads the group to select a particular alternative in most of the cases. As a consequence, taking into account the interaction between the behaviour of the group and the structure of the environment is of crucial importance during the study of animal societies and also during the design of artificial self-organized systems
APA, Harvard, Vancouver, ISO, and other styles
41

Lefebvre, Sylvain. "Services de répartition de charge pour le Cloud : application au traitement de données multimédia." Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0910.

Full text
Abstract:
Le travail de recherche mené dans cette thèse consiste à développer de nouveaux algorithmes de répartition de charge pour les systèmes de traitement de données massives. Le premier algorithme mis au point, nommé "WACA" (Workload and Cache Aware Algorithm) améliore le temps d’exécution des traitements en se basant sur des résumés de contenus. Le second algorithme, appelé "CAWA" (Cost Aware Algorithm) tire partie de l’information de coût disponible dans les plateformes de type "Cloud Computing" en étudiant l’historique d’exécution des services.L’évaluation de ces algorithmes a nécessité le développement d’un simulateur d’infrastructures de "Cloud" nommé Simizer, afin de permettre leur test avant le déploiement en conditions réelles. Ce déploiement peut se faire de manière transparente grâce au système de distribution et de surveillance de service web nommé "Cloudizer", développé aussi dans le cadre de cette thèse. Ces travaux s’inscrivent dans le cadredu projet de plateforme de traitement de données Multimédia for Machine to Machine (MCUBE), dans le lequel le canevas Cloudizer est mis en oeuvre
The research work carried out in this thesis consists in the development of new load balancing algorithms aimed at big data computing. The first algorithm, called « WACA » (Workload and Cache Aware Algorithm), enhances response times by locating data efficiently through content summaries. The second algorithm, called CAWA (Cost AWare Algorithm) takes advantage of the cost information available on Cloud Computing platforms by studying the workload history.Evaluation of these algorithms required the development of a cloud infrastructure simulator named Simizer, to enable testing of these policies prior to their deployment. This deployment can be transparently done thanks to the Cloudizer web service distribution and monitoring system, also developed during this thesis. These works are included in the Multimedia for Machine to Machine (MCUBE) project, where the Cloudizer Framework is deployed
APA, Harvard, Vancouver, ISO, and other styles
42

Marion, Damien. "Sharing big display : développement des technologies et métaphores d'interactions nouvelles pour le partage collaboratif d'affichage en groupe ouvert." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0924/document.

Full text
Abstract:
Aujourd’hui, les écrans ont envahi nos quotidiens. Cette colonisation a engendré l’avènement de nouveaux écrans, les écrans de grand format. Or, ces grands écrans sont souvent utilisés comme de simples affichages statiques n’autorisant que très peu d’interaction aux utilisateurs en présence. Mais alors comment permettre des interactions multi-utilisateur et surtout quels modes et moyens d’interactions proposer afin d’interagir avec ces grands écrans ? Il faut évidemment définir des règles de collaboration : que faire si plusieurs personnes consultent la même information en même temps ? Comment permettre à un nouvel arrivant de prendre conscience de ce qu’il y a à voir alors que des utilisateurs ont déjà “transformé” l’affichage par leur utilisation courante ?Face à ces enjeux, notre travail a consisté, dans un premier temps, à tester des interactions multi-utilisateurs sur grand écran à l’aide d’un dispositif de détection et de suivi de la position et de l’orientation de la tête (head tracking) instrumenté. Nous avons ainsi mis en évidence l’importance du concept de « vision flottante » dans la recherche collaborative d’informations sur grand écran. Dans un second temps, nos recherches se sont concentrées sur le développement d’un dispositif d’head tracking permettant des interactions multi-utilisateur (jusqu’à 6 personnes), sans artefacts et sans calibrage avec un écran de grand format. Enfin, nous présentons l’étude comparative d’un même affichage tantôt statique et tantôt rendu dynamique à l’aide de notre dispositif. Cette étude est basée sur l’évaluation de l’expérience utilisateur (UX). Ainsi, nous avons pu dégager les premières recommandations concernant les métaphores d’interactions à mettre en place pour interagir avec un écran de grand format dans un contexte d’usage en groupe ouvert.Ce travail de doctorat a été consacré à la mise en avant de la faisabilité, de l’intérêt et de la proposition de premières orientations concernant la conception d’interactions multi-utilisateurs avec un écran de grand format basées sur une technique d’head tracking
Screens have invaded our daily life. Amongst them, large displays are becoming increasingly present in public places. Sometimes, a few interaction are proposed to the users, but most of the time they are simply used as static displays. So, how to interact with these large displays and especially how to allow multi-user interactions? Of course, we have to define rules for collaboration: what we have to do if several people consult the same information at the same time? How to allow a newcomer to become aware of what there is to see when users have already "transformed" the display by their current use?First, our work consisted in testing instrumented multi-user interactions, based on a head tracking system, during a collaborative information seeking task, on a large display. In this part, we have highlighted the importance of the concept of "floating vision". Then, our research focused on the development of a head tracking system allowing intuitive interactions, without needing neither a special equipment nor individual calibration. Our system supports several users (up to six) simultaneously interacting with individualized information on a large display. Finally, we present the study of performance gain within a context of multi-user competitive consultation of information. We compare the benefit of an adaptive display (information move in front of users who are focusing on them), with a standard display. This study is based on user experience (UX) analysis. Thus, we were able to identify the first recommendations about interaction metaphors allowing intuitive interactions with a large display in an open group context.This research was devoted to highlighting the feasibility, interest and proposition of initial orientations concerning the design of multi-user interactions with large public displays based on a head tracking technique
APA, Harvard, Vancouver, ISO, and other styles
43

Macher, Hélène. "Du nuage de points à la maquette numérique de bâtiment : reconstruction 3D semi-automatique de bâtiments existants." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD006/document.

Full text
Abstract:
La création d'une maquette numérique d'un bâtiment existant nécessite le relevé du bâtiment. Le scanner laser terrestre est largement utilisé pour atteindre cet objectif. Il permet d'obtenir la géométrie des objets sous forme de nuages de points. Il fournit une grande quantité de données précises de manière très rapide et avec un niveau élevé de détails. Malheureusement, le passage du nuage de points à la maquette numérique reste actuellement largement manuel en raison du volume important de données et des processus qui sont difficiles à automatiser. Cette démarche est chronophage et source d'erreurs. Un défi majeur aujourd'hui est donc d'automatiser le processus menant à la reconstruction 3D de bâtiments existants à partir de nuages de points. L'objectif de cette thèse est de développer une chaîne de traitements permettant d'extraire automatiquement le maximum d'informations du nuage de points d'un bâtiment en vue d'intégrer le résultat dans un logiciel de BIM
The creation of an as-built BIM requires the acquisition of the as-is conditions of existing buildings. Terrestrial laser scanning (TLS) is widely used to achieve this goal. Indeed, laser scanners permit to collect information about object geometry in form of point clouds. They provide a large amount of accurate data in a very fast way and with a high level of details. Unfortunately, the scan-to-BIM process remains currently largely a manual process because of the huge amount of data and because of processes, which are difficult to automate. It is time consuming and error-prone. A key challenge today is thus to automate the process leading to 3D reconstruction of existing buildings from point clouds. The aim of this thesis is to develop a processing chain to extract the maximum amount of information from a building point cloud in order to integrate the result in a BIM software
APA, Harvard, Vancouver, ISO, and other styles
44

El-khoury, Elie. "Unsupervised video indexing on audiovisuel characterization of persons." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1025/1/El-Khoury_Elie.pdf.

Full text
Abstract:
Cette thèse consiste à proposer une méthode de caractérisation non-supervisée des intervenants dans les documents audiovisuels, en exploitant des données liées à leur apparence physique et à leur voix. De manière générale, les méthodes d'identification automatique, que ce soit en vidéo ou en audio, nécessitent une quantité importante de connaissances a priori sur le contenu. Dans ce travail, le but est d'étudier les deux modes de façon corrélée et d'exploiter leur propriété respective de manière collaborative et robuste, afin de produire un résultat fiable aussi indépendant que possible de toute connaissance a priori. Plus particulièrement, nous avons étudié les caractéristiques du flux audio et nous avons proposé plusieurs méthodes pour la segmentation et le regroupement en locuteurs que nous avons évaluées dans le cadre d'une campagne d'évaluation. Ensuite, nous avons mené une étude approfondie sur les descripteurs visuels (visage, costume) qui nous ont servis à proposer de nouvelles approches pour la détection, le suivi et le regroupement des personnes. Enfin, le travail s'est focalisé sur la fusion des données audio et vidéo en proposant une approche basée sur le calcul d'une matrice de cooccurrence qui nous a permis d'établir une association entre l'index audio et l'index vidéo et d'effectuer leur correction. Nous pouvons ainsi produire un modèle audiovisuel dynamique des intervenants
This thesis consists to propose a method for an unsupervised characterization of persons within audiovisual documents, by exploring the data related for their physical appearance and their voice. From a general manner, the automatic recognition methods, either in video or audio, need a huge amount of a priori knowledge about their content. In this work, the goal is to study the two modes in a correlated way and to explore their properties in a collaborative and robust way, in order to produce a reliable result as independent as possible from any a priori knowledge. More particularly, we have studied the characteristics of the audio stream and we have proposed many methods for speaker segmentation and clustering and that we have evaluated in a french competition. Then, we have carried a deep study on visual descriptors (face, clothing) that helped us to propose novel approches for detecting, tracking, and clustering of people within the document. Finally, the work was focused on the audiovisual fusion by proposing a method based on computing the cooccurrence matrix that allowed us to establish an association between audio and video indexes, and to correct them. That will enable us to produce a dynamic audiovisual model for each speaker
APA, Harvard, Vancouver, ISO, and other styles
45

Abou, Rjeily Yves. "Management and sustainability of urban drainage systems within smart cities." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10085/document.

Full text
Abstract:
Ce travail présente le Contrôle en Temps Réel (CTR) des Réseaux d’Assainissement (RA) dans le cadre des villes intelligentes. Le CTR nécessite de comprendre le fonctionnement du RA et d'effectuer des simulations sur des évènements mesurés, prévus et synthétiques. Par conséquent, un système de Surveillance en Temps Réel (STR) a été installé sur le site expérimental, et combinée à un modèle de simulation. Une méthode d'auto-calage des modèles hydrauliques et un système de prévision des conditions aux limites, ont été développés. Visant à protéger les citoyens et d'atténuer les conséquences des inondations, le CTR est composé d'un système de prévision des inondations suivi d'une gestion dynamique. Le concept et les méthodes proposés ont été appliqués sur le campus de l'Université de Lille 1, au sein du projet SunRise. STR a été trouvé très utile pour comprendre le fonctionnement du RA et pour le calage du modèle de simulation. L'Algorithme Génétique suivi par Pattern Search ont formé une procédure d'auto-calage efficace. NARX Neural Network a été développé et validé pour la prévision des conditions aux limites. Une fois l’opération du RA est analysée, le CTR a été développé. NARX Neural Network a été trouvé capable de prévoir les inondations. Une gestion dynamique pour augmenter la capacité de rétention du réservoir, a été étudiée sur la base du calcul de la variation temporaire de l’ouverture d’une vanne, et les résultats ont été satisfaisants en utilisant l'Algorithme Génétique et l’Algorithme des Abeilles, comme méthodes d'optimisation. Une gestion qualitative a également été examinée et testée pour vérifier son potentiel dans la réduction des volumes d'inondation
This work presents the Real Time Control (RTC) of Urban Drainage Systems (UDS) within smart cities. RTC requires to understand the UDS operation and to perform simulations on measured, forecasted and synthetic events. Therefore, a Real Time Monitoring system (RTM) was implemented on the experimental site, and combined to a simulation model. A model auto-calibration process and hydraulic boundary conditions forecast system were developed, in order to simulate the hydrologic-hydraulic response. Aiming to protect the citizens and mitigate flooding consequences, the RTC was composed of a flooding forecast system followed by a dynamic management strategy. The proposed concept and methodologies were applied and evaluated on the Lille 1 University Campus, within the SunRise project. RTM was found very helpful in understanding the system operation and calibrating the simulation model. Genetic Algorithm followed by Pattern Search formed an effective auto-calibration procedure for the simulation model. NARX Neural Network was developed and validated for forecasting hydraulic boundary conditions. Once understanding the UDS operations, the RTC was developed. NARX Neural Network was found capable to forecast flooding events. A dynamic management for increasing a tank retention capacity, was studied based on calculating a Valve State Schedule, and results were satisfying by using Genetic Algorithm and a modified form of Artificial Bee Colony, as optimization methods. A qualitative management was also proposed and tested for verifying its potential in reducing flooding volumes
APA, Harvard, Vancouver, ISO, and other styles
46

Yu, Mulin. "Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Full text
Abstract:
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
APA, Harvard, Vancouver, ISO, and other styles
47

El, Asmi Emira. "Un environnement méthodologique et logiciel pour l'interopérabilité de la maquette numérique du bâtiment et de la simulation énergétique : application à la réglementation thermique RT2012." Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080051.

Full text
Abstract:
L’analyse de la performance énergétique des bâtiments neufs repose massivement sur des outils logiciels de simulation. La valeur ajoutée de ces derniers est indéniable : ils permettent d’optimiser la conception en facilitant l’évaluation des performances énergétiques du bâtiment durant la phase de conception. Leur impact est cependant limité par plusieurs obstacles, dont les principaux sont le niveau d’expertise requis pour leur utilisation et l’absence de connexion aux outils de Conception Assistée par Ordinateur (CAO). Ce dernier point devient particulièrement critique au moment où l’utilisation de la maquette numérique BIM (Building Information Model) se généralise et où les modèles issus d’outils de CAO sont de plus en plus riches.Cette thèse repose sur cette observation et propose, afin de profiter pleinement du potentiel du BIM et des outils en lien, de contribuer à l’émergence d’approches permettant une transformation fiable et transparente des informations du bâtiment numérique BIM vers les fichiers d'entrée des environnements de simulation. Cela se traduirait par des avantages significatifs, tant sur le rapport coût-efficacité (l’analyse est effectuée plus efficacement), qu’au niveau de la fiabilité (les modèles de simulation sont conformes aux modèles de conception). Toutefois, pour mettre en œuvre de telles approches, plusieurs obstacles doivent être pris en compte : le premier est la nécessité de disposer d’un langage normalisé commun pour le BIM, le deuxième est la définition de mécanismes méthodologiques efficaces et normalisés afin d’enrichir le BIM pour la simulation, le troisième est la mise à disposition d'outils logiciels fiables pour la transformation automatisée du BIM vers les modèles de simulation thermique.Le premier obstacle est en passe d’être levé grâce aux standards issus du consortium international buildingSMART, en particulier les « Industry Foundation Classes » (IFC) qui sont désormais largement reconnus comme un format d'échange standard du BIM dans le domaine de la construction. Le deuxième verrou reste actuel : l’IFC, même dans sa dernière version IFC4, laisse entier de nombreux problèmes de formulation de concepts propres aux domaines métiers, en particulier celui de la simulation énergétique. Cependant, des environnements méthodologiques ont vu le jour permettant d’étendre et d’enrichir de façon structurée les formats de données BIM. C’est par exemple le cas de l’IDM (Information Delivery Manual) et du MVD (Model View Définition) de buildingSMART, pour les IFC.L’objectif de nos travaux est triple. En premier lieu, il s’agit de mettre en œuvre et évaluer l’environnement IDM/ MVD de buildingSMART pour l’interconnexion entre le BIM (format IFC) et la simulation énergétique. Cette étude nous a amenés à proposer un modèle pivot (BSM pour « Building Simulation Model ») basé sur une analogie avec les approches prônées par l’ingénierie dirigée par les modèles. Nous avons également développé un outil logiciel, qui inclut une base de règles de mapping, afin d’automatiser la traduction de l’information entre le modèle IFC et le modèle de simulation. Cette approche a été évaluée sur la base de l’outil COMETH (moteur de simulation de la régulation thermique française RT2012) mais elle est généralisable
Energy performance analysis of new buildings strongly relies on simulation tools. They optimize the design by facilitating building performance analysis during the design phase. However, there are several limitations, among which one of the main is the lack of reliable connections between Computer Aided Design (CAD) and simulation tools. This is particularly critical at a time when the concept of Building Information Model (BIM) is widely applied and the CAD models are becoming richer.This thesis proposes to take advantage of the potential of BIM in order to contribute to emerging approaches for a reliable and seamless interconnection between building information models and simulation environment input files. This would result into significant benefits, both from the cost-effectiveness (analysis is performed more effectively) and the reliability (simulation models strictly comply with design models) points of view. However, to implement such approaches, several barriers have to be considered. The first is the need for a common, standardized BIM language. The second is the definition of adequate and standardized extension mechanisms, to customize BIM for simulation-specific purposes. The third is the provision of software tools, for effective and reliable BIM to simulation models transformation.The first barrier is likely to be overcome through the advent of the buildingSMART Industry Foundation Classes (IFC), which is widely recognized as a standard BIM exchange format in the construction industry. However, with respect to the second barrier, the IFC remains a wide-purpose modelling language and as such, fails to address many domain-specific issues, like e.g. energy simulation. This limitation has been acknowledged by buildingSMART, who have delivered novel methodological tools to allow for domain-specific customization of IFC. The main one is called the Information Delivery Manual (IDM). The aim of our work is the implementation and evaluation the BuildingSMART framework IDM/MVD to interconnect BIM (IFC) and energy simulation. This study led us to propose a pivotal model (BSM for « Building Simulation Model») based on an analogy with model driven engineering approaches. We also have developed a software prototype, which includes a set of mapping rules that automates the translation process between the IFC model and the simulation tool. In the scope of this study, we targeted the COMETH simulation tool (a simulation engine based on the French thermal regulation RT2012) but our results can easily be extended to additional tools
APA, Harvard, Vancouver, ISO, and other styles
48

Lefebvre, Sylvain. "Services de répartition de charge pour le Cloud : application au traitement de données multimédia." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-01062823.

Full text
Abstract:
Le travail de recherche mené dans cette thèse consiste à développer de nouveaux algorithmes de répartition de charge pour les systèmes de traitement de données massives. Le premier algorithme mis au point, nommé "WACA" (Workload and Cache Aware Algorithm) améliore le temps d'exécution des traitements en se basant sur des résumés de contenus. Le second algorithme, appelé "CAWA" (Cost Aware Algorithm) tire partie de l'information de coût disponible dans les plateformes de type "Cloud Computing" en étudiant l'historique d'exécution des services.L'évaluation de ces algorithmes a nécessité le développement d'un simulateur d'infrastructures de "Cloud" nommé Simizer, afin de permettre leur test avant le déploiement en conditions réelles. Ce déploiement peut se faire de manière transparente grâce au système de distribution et de surveillance de service web nommé "Cloudizer", développé aussi dans le cadre de cette thèse. Ces travaux s'inscrivent dans le cadredu projet de plateforme de traitement de données Multimédia for Machine to Machine (MCUBE), dans le lequel le canevas Cloudizer est mis en oeuvre.
APA, Harvard, Vancouver, ISO, and other styles
49

Magnin, Loïck C. A. "Two-player interaction in quantum computing: cryptographic primitives and query complexity." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209783.

Full text
Abstract:
Cette thèse étudie deux aspects d'interaction entre deux joueurs dans le modèle du calcul et de la communication quantique.

Premièrement, elle étudie deux primitives cryptographiques quantiques, des briques de base pour construire des protocoles cryptographiques complexes entre deux joueurs, comme par exemple un protocole d'identification.

La première primitive est la "mise en gage quantique". Cette primitive ne peut pas être réalisée de manière inconditionnellement sûre, mais il est possible d'avoir une sécurité lorsque les deux parties sont soumises à certaines contraintes additionnelles. Nous étudions cette primitive dans le cas où les deux joueurs sont limités à l'utilisation d'états et d'opérations gaussiennes, un sous-ensemble de la physique quantique central en optique, donc parfaitement adapté pour la communication via fibres optiques. Nous montrons que cette restriction ne permet malheureusement pas la réalisation de la mise en gage sûre. Pour parvenir à ce résultat, nous introduisons la notion de purification intrinsèque, qui permet de contourner l'utilisation du théorème de Uhlman, en particulier dans le cas gaussien.

Nous examinons ensuite une primitive cryptographique plus faible, le "tirage faible à pile ou face", dans le modèle standard du calcul quantique. Carlos Mochon a donné une preuve d'existence d'un tel protocole avec un biais arbitrairement petit. Nous donnons une interprétation claire de sa preuve, ce qui nous permet de la simplifier et de la raccourcir grandement.

La seconde partie de cette thèse concerne l'étude de méthodes pour prouver des bornes inférieures dans le modèle de la complexité en requête. Il s'agit d'un modèle de complexité central en calcul quantique dans lequel de nombreux résultats majeurs ont été obtenus. Dans ce modèle, un algorithme ne peut accéder à l'entrée uniquement qu'en effectuant des requêtes sur chacune des variables de l'entrée. Nous considérons une extension de ce modèle dans lequel un algorithme ne calcule pas une fonction, mais doit générer un état quantique.

Cette généralisation nous permet de comparer les différentes méthodes pour prouver des bornes inférieures dans ce modèle. Nous montrons d'abord que la méthode par adversaire ``multiplicative" est plus forte que la méthode ``additive". Nous montrons ensuite une réduction de la méthode polynomiale à la méthode multiplicative, ce qui permet de conclure à la supériorité de la méthode par adversaire multiplicative sur toutes les autres méthodes.

Les méthodes par adversaires sont en revanche souvent difficiles à utiliser car elles nécessitent le calcul de normes de matrices de très grandes tailles. Nous montrons comment l'étude des symétries d'un problème simplifie grandement ces calculs.

Enfin, nous appliquons ces formules pour prouver la borne inférieure optimale du problème Index-Erasure, un problème de génération d'état quantique lié au célèbre problème Isomorphisme-de-Graphes.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
50

Clément, Michaël. "Modélisation et apprentissage de relations spatiales pour la reconnaissance et l’interprétation d’images." Electronic Thesis or Diss., Sorbonne Paris Cité, 2017. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=1927&f=11772.

Full text
Abstract:
Ces dernières années, la quantité de données visuelles produites par divers types de capteurs est en augmentation permanente. L'interprétation et l'indexation automatique de telles données constituent des défis importants pour les domaines liés à la reconnaissance de formes et la vision par ordinateur. Dans ce contexte, la position relative des différents objets d'intérêt composant les images représente une information particulièrement importante pour interpréter leur contenu. Les relations spatiales sont en effet porteuses d'une sémantique riche, qui est fortement liée à la perception humaine. Les travaux de recherche présentés dans cette thèse proposent ainsi d'explorer différentes approches génériques de description de l'information spatiale, en vue de les intégrer dans des systèmes de reconnaissance et d'interprétation d'images de haut niveau. Tout d'abord, nous présentons une approche pour la description de configurations spatiales complexes, où les objets peuvent être imbriqués les uns dans les autres. Cette notion est formalisée par deux nouvelles relations spatiales, nommées enlacement et entrelacement. Nous proposons un modèle qui permet de décrire et de visualiser ces configurations avec une granularité directionnelle. Ce modèle est validé expérimentalement pour des applications en imagerie biomédicale, en télédétection et en analyse d'images de documents. Ensuite, nous présentons un cadre d'apprentissage de relations spatiales composites à partir d'ensembles d'images. Inspirée des approches par sacs de caractéristiques visuelles, cette stratégie permet de construire des vocabulaires de configurations spatiales apparaissant dans les images, à différentes échelles. Ces caractéristiques structurelles peuvent notamment être combinées avec des descriptions locales, conduisant ainsi à des représentations hybrides et complémentaires. Les résultats expérimentaux obtenus sur différentes bases d'images structurées permettent d'illustrer l'intérêt de cette approche pour la reconnaissance et la classification d'images
In recent years, the amount of visual data produced by various types of sensors has been continuously increasing. The automatic interpretation and indexation of such data constitute an important challenge in the fields of pattern recognition and computer vision. In this context, the relative position of the different objects of interest depicted in images represents particularly important information for the interpretation of their content. Spatial relations indeed carry rich semantics that are strongly tied with human perception. The research work presented in this thesis thus proposes to explore different generic approaches to the description of spatial information, in order to integrate them in high-level image recognition and understanding systems. First, we present an approach for the description of complex spatial configurations, where objects can be imbricated in each other. This notion is formalized by two novel spatial relations, namely enlacement and interlacement. We propose a model to describe and to visualize these configurations with directional granularity. This model is experimentally validated for applications in biomedical imaging, remote sensing and document image analysis. Then, we present a framework for learning composite spatial relations from image datasets. Inspired by bags of visual features approaches, this strategy allows to build vocabularies of spatial configurations occurring across images, at different scales. These structural features can notably be combined with local descriptions, leading to hybrid and complementary representations. Experimental results obtained for different datasets of structured images highlight the interest of this approach for image recognition and classification tasks
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography