Tesi sul tema "Synthèse passive du temps"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Synthèse passive du temps.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Synthèse passive du temps".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Zhang, Jie. "Synthèse de formaldéhyde par oxydation directe du méthane en microréacteur". Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL060N/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le formaldéhyde, un des produits de base de la chimie, est synthétisé industriellement par un procédé multi-étapes, dans lequel l’efficacité énergétique est limitée. Ainsi, une synthèse par oxydation directe du méthane en phase gazeuse, qui pourrait être plus avantageuse, a été étudiée expérimentalement et par une modélisation cinétique, dans le cadre de ce travail. Pour favoriser la production du formaldéhyde, produit intermédiaire de l’oxydation du méthane, des temps de passage faibles (< 100 ms) ont été envisagés. Un microréacteur annulaire (espace annulaire de 0,5 mm) en quartz a été utilisé, dans lequel la réaction a été étudiée en faisant varier les paramètres opératoires suivants : température (600-1000°C), temps de passage (20-80 ms), rapport XO2/XCH4 (0,5-15) et teneur en NO2 ajoutée (0-0,6%). Sans NO2, les sélectivités en HCHO diminuent avec la conversion et le rendement maximal sans recyclage est de 2.4% (950°C, 60 ms et XO2/XCH4 = 8). L’ajout de NO2 permet de diminuer la température requise de 300°C, et d’augmenter le meilleur rendement en HCHO à 9% (700°C, 30 ms et XO2/XCH4 = 7 et 0,5% de NO2). À faible avancement, la réaction sans NO2 peut être modélisée avec le mécanisme Gri-Mech 3.0 sans aucun ajustement. Pour la réaction avec NO2, après quelques corrections et modifications fondées sur une étude bibliographique, le mécanisme de Zalc et al. (2006) permet de rendre correctement compte des résultats expérimentaux. L’analyse de flux a montré que l’inter-conversion entre NO2 et NO joue un rôle important dans le milieu réactionnel. Elle permet de former continuellement les radicaux réactifs OH•, et de convertir les radicaux CH3• et CH3O2• en radicaux CH3O•
Formaldehyde is one of the world’s top organic intermediate chemicals. It is currently produced by a complex three-step process but a one-step process might require less energy. In this work, the direct gas phase partial oxidation of methane to formaldehyde has been studied through experiments and kinetic modeling. As formaldehyde is an intermediate in the sequential oxidation of methane, short residence times (<100 ms) have been considered in order to optimize its production. Thus, a quartz annular flow microreactor (annular space 0.5 mm wide), was chosen. The undertaken experiments consist of a systematic investigation of the effects of temperature (600-1000°C), residence time (20-80 ms), input composition XO2/XCH4 (0.5-15) and initial NO2 concentration (0-0.6%). Without NO2, the HCHO selectivity decreases with the increasing methane conversion. For a single pass operation, the best HCHO yield is 2.4% (950°C, 60 ms, XO2/XCH4 = 8). The addition of NO2 decreases the reaction initiation temperature by 300°C and it remarkably enhances the HCHO yield. The highest HCHO yield attains 9% (700°C, 30 ms, XO2/XCH4 =7) in the presence of NO2 (0.5%). For the reaction without NO2, the mechanism Gri-Mech 3.0 fits well the experimental results. For the reaction with NO2, by using the mechanism of Zalc et al. (2006) with some modifications, we obtained a good agreement between the experimental data and the model. The production and consumption flux analysis shows that the inter-conversion between NO2 and NO plays an important role in the reaction, because it continuously produces the reactive radicals OH• and it converts the radicals CH3• and CH3O2• to radicals CH3O•
2

Jeong, Boram. "Theory of subjectification in Gilles Deleuze : a study of the temporality in capitalism". Electronic Thesis or Diss., Paris 8, 2017. http://www.theses.fr/2017PA080165.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’argument central de cette thèse est que le capitalisme financier en tant qu’économie fondée sur la dette produit une subjectivité mélancolique, en imposant à son sujet une structure particulière de temps. Je me suis appuyée sur la théorie deleuzienne du temps et sa thèse sur la formation du sujet. La synthèse du temps deleuzienne présente le temps comme constitutif du sujet plutôt que comme une forme subjective du temps, expliquant ainsi comment le sujet peut être passivement produit par le temps. Il procure également une thèse sur la formation du sujet à travers le capital, processus qu’il appelle « subjectivation ». En particulier, cette recherche consiste en trois tâches :(1) le rôle critique de la temporalité dans la formation du sujet, (2) la temporalité spécifique caractéristique du capitalisme financier contemporain, et (3) une pathologie du temps observée chez le sujet du capitalisme
This dissertation looks at time as a socially or psychologically imposed ‘structure’ that determines the ways in which past, present and future are weaved together in the subject. This inquiry presents (1) a critical role of temporality in the formation of the subject, (2) a specific temporality characteristic of contemporary financial capitalism, and (3) the pathologies of time found in the subjects of capitalism. The first two chapters provide an extensive analysis of Deleuze’s passive syntheses of time given in Difference and Repetition, which reveals the subject’s passive relation to time as a structure of ‘becoming.’ The following chapters examine how this ontological structure of time interacts with socio-economic temporalities in its production of the subject. I particularly focus on the temporal structure of debt, which has become a general condition of the subjects in the current economic system. I claim that the debt-based economy produces ‘melancholic subjectivity,’ characterized by a dominance of the past and the inhibition of becoming
3

Holländer, Matthias. "Synthèse géométrique temps réel". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
4

Holländer, Matthias. "Synthèse géométrique temps réel". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
5

Gonçalvès, Paulo. "Représentations temps-fréquence et temps-échelle bilinéaires : synthèse et contributions". Grenoble INPG, 1993. http://www.theses.fr/1993INPG0167.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these est consacree a l'etude des distributions energetiques temps-frequence et temps-echelle, qui sont deux types de representations conjointes bilineaires de signaux. Bien que leurs vocations respectives different, on montre dans une premiere partie qu'il est possible d'unifier le cadre de leur etude en les presentant comme des representations unitaires sur un espace de hilbert, de groupes algebriques munis de regles operatorielles particulieres. Ainsi, la classe de cohen, representation unitaire du groupe de weyl-heisenberg, est attachee a des proprietes naturelles de covariance par translations en temps et en frequence. Les distributions temps-echelle de la classe affine etant, quant a elles, des representations du groupe affine, sont precisement des distributions covariantes par translation en temps et changement d'echelle. Ce faisant, il est ensuite possible d'elargir le champ des distributions covariantes par un couple specifique d'operateurs en faisant usage d'equivalences unitaires entre classes de representations. Un autre aspect de ces representations bilineaires, qui est aborde dans la deuxieme partie de la these, est lie aux formes quadratiques qui les sous-tendent. Celles-ci, sont notamment responsables de l'existence d'interferences obeissant a des regles de construction geometrique en lien avec la nature des operateurs mis en jeu. Ces regles de construction sont formalisees dans le cas de certaines distributions affines localisees, et les predictions theoriques sont confrontees a des resultats de simulation. Enfin, dans une derniere partie, nous abordons certaines situations pour lesquelles les caracterisations temps-echelle sont d'un recours avantageux face aux analyses temps-frequence. Parmi les problematiques soulevees (qui incluent la tolerance a l'effet doppler et l'estimation spectrale de bruits en 1/f), l'estimation de singularites du type holderienne occupe une place importante dans la mesure ou ces dernieres developpent une structuration en loi d'echelle que les representations affines permettent de reveler
6

Nguena, Timo Omer Landry. "Synthèse pour une Logique Temps-Réel Faible". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00440829.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à la spécification et à la synthèse de contrôleurs des systèmes temps-réels. Les modèles pour ces systèmes sont des Event-recording Automata. Nous supposons que les contrôleurs observent tous les évènements se produisant dans le système et qu'ils peuvent interdirent uniquement des évènements contrôlables. Tous les évènements ne sont pas nécessairement contrôlables. Une première étude est faite sur la logique Event-recording Logic (ERL). Nous proposons des nouveaux algorithmes pour les problèmes de vérification et de satisfaisabilité. Ces algorithmes présentent les similitudes entre les problèmes de décision cités ci-dessus et les problèmes de décision similaires étudiés dans le cadre du $\mu$-calcul. Nos algorithmes corrigent aussi des algorithmes présents dans la litérature. Les similitudes relevées nous permettent de prouver l'équivalence entre les formules de ERL et les formules de ERL en forme normale disjonctive. La logique ERL n'étant pas suffisamment expressive pour décrire certaines propriétés des systèmes, en particulier des propriétés des contrôleurs, nous introduisons une nouvelle logique WTmu. La logique WTmu est une extension temps-réel faible du $\mu$-calcul. Nous proposons des algorithmes pour la vérification des systèmes lorsque les propriétés sont écrites en WTmu. Nous identifions un fragment de WTmu appelé WTmu pour le contrôle (C-WTmu). Nous proposons un algorithme qui permet de vérifier si une formule de C-WTmu possède un modèle. Cet algorithme n'a pas besoin de connaître les ressources (horloges et constante maximale comparée avec les horloges) des modèles. En utilisant C-WTmu comme langage de spécification des systèmes, nous proposons des algorithmes de décision pour le contrôle centralisé et le $\Delta$-contrôle centralisé. Ces algorithmes permettent aussi de construire des modèles de contrôleurs.
7

Karpf, Sylvain. "Architectures massivement parallèles pour la synthèse d'images temps réel". Lille 1, 1993. http://www.theses.fr/1993LIL10007.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En règle générale, une machine massivement parallèle utilise un très grand nombre de processeurs sur lesquels sont réparties les données à traiter. En synthèse d'images, ces données sont de deux types : les objets de la scène à visualiser et les pixels de l'écran. Il est alors naturel d'envisager deux types de parallélisme : parallélisme objet (les processeurs sont associés aux objets) et parallélisme pixel (les processeurs sont associés aux pixels). Le but de cette thèse est de comparer de manière formelle ces deux types de parallélisme et de déterminer les puissances potentielles des machines graphiques basées sur ces principes. Après une présentation et une classification de tous les systèmes graphiques massivement parallèles proposés à ce jour, nous étudions plus particulièrement ceux utilisant un découpage de l'écran en zones, et composés d'une seule unité de conversion massivement parallèle (objet ou pixel) générant tour à tour chacune des zones (affichage de facettes par la méthode de Gouraud). Par ailleurs, nous menons également, dans le cadre d'une machine à parallélisme objet, une étude de faisabilité d'un processeur d'affichage de quadriques.
8

RANDALL, GREGORY. "Conception et realisation d'une machine de stereoscopie trinoculaire passive temps reel". Paris 11, 1991. http://www.theses.fr/1991PA112252.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet esprit p 940 a pour but la construction d'une machine de vision pour l'analyse de la profondeur et du mouvement en temps reel. Au sein de ce projet, notre tache a ete la construction du module de stereoscopie trinoculaire passive. Nous sommes partis de l'algorithme de prediction-verification developpe par n. Ayache et f. Lustman au sein de l'equipe robotvis a l'inria. Il s'agit de la mise en correspondance des segments approximant les contours des images obtenues par trois cameras qui observent la meme scene. Notre travail presente: les modifications realisees sur l'algorithme de depart pour diminuer le temps de calcul et la memoire necessaire, la construction d'une machine parallele a base de processeurs du type dsp560000 et la mise en uvre de l'algorithme modifie sur la machine construite. Quelques resultats experimentaux sur des images reelles sont montres ainsi qu'une etude des modes de parallelisation et des performances de la machine multiprocesseur construite
9

Auger, François. "Représentations temps-fréquence des signaux non-stationnaires : synthèse et contribution". Nantes, 1991. http://www.theses.fr/1991NANT2056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire concerne l'analyse temps-fréquence des signaux non-stationnaires. Après avoir montré la nécessité de ce type d'analyse, on s'intéresse aux distributions énergétiques de la classe de Cohen. Cette étude permet alors notamment de comparer ses différents éléments du point de vue de leurs propriétés théoriques, de la géométrie de leurs termes d'interférence et de leurs qualités descriptives, et de préciser les différents problèmes liés à l'obtention de leurs versions discrètes. On aborde ensuite les méthodes de représentation temps-fréquence paramétriques. On étudie tout d'abord les propriétés théoriques de certaines de ces représentations les plus classiques, en utilisant les mêmes critères que les représentations de la classe de Cohen, puis on s'intéresse aux possibilités de paramétrisation de ces dernières, et notamment de la représentation de Wigner-Ville. Enfin, on s'intéresse à différentes méthodes heuristiques d'élaboration de représentations temps-fréquence facilement lisibles et interprétables, en partant soit du spectrogramme, soit de la représentation de Wigner-Ville.
10

Salagnac, Guillaume. "Synthèse de gestionnaires mémoire pour applications Java temps-réel embarquées". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La problématique abordée dans ce travail est celle de la gestion mémoire automatique pour des programmes Java temps-réel embarqués. Dans des langages comme le C ou le C++, la mémoire est typiquement gérée explicitement par le programmeur, ce qui est la source de nombreuses erreurs d'exécution causées par des manipulations hasardeuses. Le coût de correction de telles erreurs est très important car ces erreurs sont rarement reproductibles et donc difficiles à appréhender. En Java la gestion mémoire est entièrement automatique, ce qui facilite considérablement le développement. Cependant, les techniques classiques de recyclage de la mémoire, typiquement basées sur l'utilisation d'un ramasse-miettes, sont souvent considérées comme inapplicables dans le contexte des applications temps-réel embarquées, car il est très difficile de prédire leur temps de réponse. Cette incompatibilité est un frein important à l'adoption de langages de haut niveau comme Java dans ce domaine. Pour résoudre le problème de la prévisibilité du temps d'exécution des opérations mémoire, nous proposons une approche fondée sur l'utilisation d'un modèle mémoire en régions. Cette technique, en groupant physiquement les objets de durées de vie similaires dans des zones gérées d'un seul bloc, offre en effet un comportement temporel prévisible. Afin de décider du placement des objets dans les différentes régions, nous proposons un algorithme d'analyse statique qui calcule une approximation des relations de connexion entre les objets. Chaque structure de données est ainsi placée dans une région distincte. L'analyse renvoie également au programmeur des informations sur le comportement mémoire du programme, de façon à le guider vers un style de programmation propice à la gestion mémoire en régions, tout en pesant le moins possible sur le développement. Nous avons implanté un gestionnaire mémoire automatique en régions dans la machine virtuelle JITS destinée aux systèmes embarqués à faibles ressources. Les résultats expérimentaux ont montré que notre approche permet dans la plupart des cas de recycler la mémoire de façon satisfaisante, tout en présentant un comportement temporel prévisible. Le cas échéant, l'analyse statique indique au développeur quels sont les points problématiques dans le code, afin de l'aider à améliorer son programme
In this thesis, we address the problem of dynamic memory management in real-time embedded Java systems. When programming in C or C++, all memory management is done explicitly by the programmer, inducing numerous execution faults because of hazardous use of memory operations. This greatly increases software development costs, because such errors are very hard to debug. The Java language tackles this problem by offering automatic memory management, thanks to the use of a garbage collector. However, garbage collection is often deemed to be unsuited to a real-time embedded context, because of its unpredictable execution times. This problem hinders the spread of modern languages like Java in the world of real-time embedded systems. To settle the problem of execution times, we propose to use a region-based memory manager. The idea is to group objects of similar lifetimes into memory regions, which are deallocated as a whole. This paradigm offers predictable execution times for all memory operations. We propose a static analysis algorithm that predicts connections between objects, so that every data structure is grouped into one region. The analysis also produces results describing the memory behaviour of the program, helping the developer to write his code in a style suitable for region-based memory management. We implemented an automatic region allocator in the virtual machine of the JITS project, dedicated to bringing full Java support to resource-constrained embedded devices. Experiments show that for most programming patterns, our system behaves as efficiently as a garbage collector, while retaining predictable execution times. Our analysis tool is furthermore able to provide useful feedback to the programmer to pinpoint problematic constructs
11

Salagnac, Guillaume. "Synthèse de gestionnaires mémoire pour applications Java temps-réel embarquées". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00288426.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La problématique abordée dans ce travail est celle de la gestion mémoire automatique pour des programmes Java temps-réel embarqués. Dans des langages comme le C ou le C++, la mémoire est typiquement gérée explicitement par le programmeur, ce qui est la source de nombreuses erreurs d'exécution causées par des manipulations hasardeuses. Le coût de correction de telles erreurs est très important car ces erreurs sont rarement reproductibles et donc difficiles à appréhender. En Java la gestion mémoire est entièrement automatique, ce qui facilite considérablement le développement. Cependant, les techniques classiques de recyclage de la mémoire, typiquement basées sur l'utilisation d'un ramasse-miettes, sont souvent considérées comme inapplicables dans le contexte des applications temps-réel embarquées, car il est très difficile de prédire leur temps de réponse. Cette incompatibilité est un frein important à l'adoption de langages de haut niveau comme Java dans ce domaine.
Pour résoudre le problème de la prévisibilité du temps d'exécution des opérations mémoire, nous proposons une approche fondée sur l'utilisation d'un modèle mémoire en régions. Cette technique, en groupant physiquement les objets de durées de vie similaires dans des zones gérées d'un seul bloc, offre en effet un comportement temporel prévisible. Afin de décider du placement des objets dans les différentes régions, nous proposons un algorithme d'analyse statique qui calcule une approximation des relations de connexion entre les objets. Chaque structure de données est ainsi placée dans une région distincte. L'analyse renvoie également au programmeur des informations sur le comportement mémoire du programme, de façon à le guider vers un style de programmation propice à la gestion mémoire en régions, tout en pesant le moins possible sur le développement.
Nous avons implanté un gestionnaire mémoire automatique en régions dans la machine virtuelle JITS destinée aux systèmes embarqués à faibles ressources. Les résultats expérimentaux ont montré que notre approche permet dans la plupart des cas de recycler la mémoire de façon satisfaisante, tout en présentant un comportement temporel prévisible. Le cas échéant, l'analyse statique indique au développeur quels sont les points problématiques dans le code, afin de l'aider à améliorer son programme.
12

Naoulou, Abdelelah. "Architectures pour la stéréovision passive dense temps réel : application à la stéréo-endoscopie". Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00110093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'émergence d'une robotique médicale en chirurgie laparoscopique destinée à automatiser et améliorer la précision des interventions nécessite la mise en Suvre d'outils et capteurs miniaturisés intelligents dont la vision 3D temps réel est un des enjeux. Bien que les systèmes de vision 3D actuels représentent un intérêt certain pour des manipulations chirurgicales endoscopiques précises, ils ont l'inconvénient de donner une image 3D qualitative plutôt que quantitative, laquelle nécessite un appareillage spécifique rendant l'acte chirurgical inconfortable et empêche le couplage avec un calculateur dans le cadre d'une chirurgie assistée. Nous avons développé dans la cadre du projet interne « PICASO » (Plate-forme d'Intégration de CAméras multiSenOrielles) dont les enjeux scientifiques concernent le conditionnement de capteurs intégrés et le traitement et la fusion d'images multi spectrales, un dispositif de vision 3D compatible avec les temps d'exécution des actes chirurgicaux. Ce système est basé sur le principe de la stéréoscopie humaine et met en Suvre des algorithmes de stéréovision passive dense issus de la robotique mobile. Dans cette thèse nous présentons des architectures massivement parallèles, implémentées dans un circuit FPGA, et capables de fournir des images de disparité à la cadence de 130 trames/sec à partir d'images de résolution 640x480 pixels. L'algorithme utilisé est basé sur la corrélation Census avec une fenêtre de calcul de 7 x 7 pixels. Celui-ci a été choisi pour ses performances en regard de sa simplicité de mise en Suvre et la possibilité de paralléliser la plupart des calculs. L'objectif principal de cet algorithme est de rechercher, pour chaque point, la correspondance entre deux images d'entrées (droite et gauche) prises de deux angles de vue différents afin d'obtenir une "carte de disparités" à partir de laquelle il est possible de reconstruire la scène 3D. Pour mettre en Suvre cet algorithme et tenir les contraintes « temps réel » nous avons développé des architectures en « pipeline » (calcul des moyennes, transformation Census, recherche des points stéréo-correspondants, vérification droite-gauche, filtrage...). L'essentiel des différentes parties qui composent l'architecture est décrit en langage VHDL synthétisable. Enfin nous nous sommes intéressés à la consommation en termes de ressources FPGA (mémoires, macro-cellules) en fonction des performances souhaitées.
13

Dudragne, Jérôme. "Analyse et synthèse de la commande de téléopérateurs généralisés par l'approche passive". Montpellier 2, 1990. http://www.theses.fr/1990MON20200.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le propos de cette these concerne la mise en uvre d'une methodologie d'analyse et de synthese de la commande d'un systeme maitre esclave generalise. Le concept de maitre esclave generalise repond a la volonte d'ameliorer les performances ergonomiques des telemanipulateurs en permettant, entre autre, toute liberte de choix de la geometrie et de la dynamique des manipulateurs maitre et esclave. L'approche par controle d'impedance et modele de reference proposee integre le concept de passivite et d'equivalent physique. Elle evite toute modelisation precise de l'environnement, permet un reglage simple du controle ainsi qu'une qualification en terme de stabilite et de transparence du systeme de telemanipulation. Une etude de robustesse vis-a-vis des retards de transmission, des incertitudes sur les parametres du modele et des modes souples articulaires est presentee. Elle permet d'evaluer le domaine de validite des solutions proposees
14

Beaumesnil, Brice. "Suivi labial couleur pour analyse-synthèse vidéo et communication temps-réel". Pau, 2006. http://www.theses.fr/2006PAUU3048.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème abordé dans cette thèse concerne l'extraction vidéo et le suivi de points caractéristiques de la bouche d'un locuteur en vue d'animer de façon réaliste et en temps réel un clone de synthèse dans des conditions d'éclairage suffisantes mais non contraintes (typiquement un éclairage de bureau) sans exploitation d'information sonore. Nous avons cherché à étudier les différentes techniques existant dans le domaine pour les modifier afin de les adapter à notre cas de figure. Tout d'abord nous avons choisi l'utilisation d'un espace couleur non-linéaire peu sensible à la luminosité afin d'en extraire une teinte lèvre permettant une bonne discrimination par rapport au reste du visage. Cette teinte est ensuite segmentée par un outil de classification pour pouvoir détecter la position de bouche ainsi que ses contours. Afin de rendre l'algorithme plus robuste nous avons utilisé l'information issue de la synthèse du visage pour guider l'analyse de la bouche (technique de contre-réaction). L'utilisation de méthodes dites de bas niveau nous procure l'avantage par rapport aux nombreux autres travaux existants de ne pas avoir à réaliser de base d'apprentissage. De plus, leurs paramétrages dynamiques assurent une grande robustesse aux conditions d'éclairage et aux différents types de peau des locuteurs. Le travail réalisé nous a permis d'obtenir une chaîne globale de traitement allant de la capture vidéo du locuteur jusqu'à l'animation d'un clone de synthèse. Un prototype complet opérationnel permet de réaliser des animations en temps-réel avec de nombreux individus sous différents types d'éclairage
The objective of this thesis is to extract and to track relevant primitives of the mouth in a nonconstrained environment (typically o_ce lighting) to make a realistic animation of a synthetic 3D face model in real-time without audio information. We sought to study various existing methods to adapt them to our problem. First we define a lip hue based on a non-linear color space (little sensitive to lighting variation) in order to exhibit very distinctly skin and lip hue areas on the speaker's face. This hue is then segmented by a clustering algorithm to be able to detect the position of the mouth and its contours. In order to make the algorithm more robust we use synthesis information (feedback loop) of the face to guide the mouth analysis. Low-level methods give us the avantage not to use a database compared to many existing works (typically AAMs). Moreover, their dynamic control ensures a great robustness to the lighting exposition and to the various types of speaker's skin. With this work we have realized a global analysis/synthesis chain (going from the video capture of the speaker until the clone animation). An operational prototype enables us to make animations in real time with many speakers under various types of lighting
15

Zhou, Xiyin. "Deleuze, temps et éthique : les trois synthèses du temps et les trois éthiques". Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0042/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse se propose de contribuer à l’étude de la philosophie du temps et de l’éthique de Deleuze, en examinant parallèlement la conception du temps qui se dégage des trois synthèses dans Différence et répétition et celle de l’éthique qui s’incarne dans l’article ‘Spinoza et les trois « Éthiques »’ (Critique et clinique), en vue de démontrer l’isomorphisme entre la structure ternaire de ces trois synthèses du temps et celle des trois Éthiques. Cela permet de dégager un enjeu méta-éthique qui déborde le cadre deleuzien, et de ressaisir la conception de l’éthique dans une perspective temporelle. Il s'agit de tenter à partir de cette problématique à la fois temporelle et éthique, une réflexion méta-éthique, à l’égard de l’éthique deleuzienne, inspirée par Spinoza et Nietzsche. La démarche et le style adoptés pour réaliser cette thématique ne sont ni exégétiques ni herméneutiques mais orientés vers la mise en forme des arguments. Ainsi, au lieu d’être ancré dans les déclarations deleuziennes tenues comme acquises, en insistant sur un écart intellectuel et en pratiquant l’attitude argumentative, un véritable dialogue conceptuel avec Deleuze, d’un point de vue externe, devient possible. Ce dialogue argumentatif passe par l’emploi de concepts suffisamment puissants, qui ne font pas nécessairement partie du corpus deleuzien : le concept de ‘présentisme’ est introduit en rejoignant celui d’expression spinozienne pour rendre univoques les trois synthèses du temps ; le concept d’‘abduction’ est introduit pour éclaircir la manière philosophique de Deleuze. Cette thèse privilégie donc un point de vue externaliste dans la lecture de l’articulation entre ontologie du temps et éthique
This dissertation plans to contribute to a study of the philosophy of time and the ethics of Deleuze, by scrutinizing the conception of time drawn from the three syntheses in Difference and repetition and that of ethics which is embodied in the article titled “Spinoza and the three « Ethics » ” (Critical and Clinical), in order to show the isomorphism between the ternary structure of the three syntheses of time and that of the three Ethics. This brings about a meta-ethical stake going beyond the deleuzian scope and also enables to recapture the conception of ethics from a perspective of time. It’s about trying to arrive at a meta-ethical reflection, on the deleuzian ethics inspired by Spinoza and Nietzsche, from this ‘problematique’ of both time and ethics. The approach and the style that are adopted to realize this theme are neither exegetical nor hermeneutical,but inclined to construct the arguments. Hence, instead of adhering to the deleuzian assertions taken for granted, by insisting on an intellectual reserve and by practicing an argumentative attitude, a genuine conceptual dialogue with Deleuze from an external point of view becomes possible. This argumentative dialogue is realized by applyingsome powerful concepts, which don’t necessarily attach to the deleuzian system: the concept of ‘presentism’ is introduced by joining it with that of the spinozian ‘expression’ in order to make all the three syntheses of time univocal; the concept of ‘abduction’ is invited to clarify the particular philosophical manner of Deleuze. Therefore, this dissertation privileges an externalist point of view in the reading of the articulation between ontology of time and ethics
16

Meynard, Adrien. "Stationnarités brisées : approches à l'analyse et à la synthèse". Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0475.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La non-stationnarité est caractéristique des phénomènes physiques transitoires. Par exemple, elle peut être engendrée par la variation de vitesse d'un moteur lors d'une accélération. De même, du fait de l'effet Doppler, un son stationnaire émis par une source en mouvement sera perçu comme étant non stationnaire par un observateur fixe. Ces exemples nous conduisent à considérer une classe de non-stationnarité formée des signaux stationnaires dont la stationnarité a été brisée par une opérateur de déformation physiquement pertinent. Après avoir décrit les modèles de déformation considérés (chapitre 1), nous présentons différentes méthodes permettant d'étendre l'analyse et la synthèse spectrale à de tels signaux. L'estimation spectrale des signaux revient à déterminer le spectre du processus stationnaire sous-jacent et la déformation ayant brisé sa stationnarité. Ainsi, dans le chapitre 2, nous nous intéressons à l'analyse de signaux localement déformés pour lesquels la déformation subie s'exprime simplement comme un déplacement des coefficients d'ondelettes dans le plan temps-échelle. Nous tirons profit de cet propriété pour proposer l'algorithme d'estimation du spectre instantané JEFAS. Dans le chapitre 3, nous étendons cette analyse spectrale aux signaux multi-capteurs pour lesquels l'opérateur de déformation prend une forme matricielle. Il s'agit d'un problème de séparation de sources doublement non stationnaire. Dans le chapitre 4, nous proposons un approche à la synthèse pour étudier des signaux localement déformés. Enfin, dans le chapitre 5, nous construisons une représentation temps-fréquence adaptée à l'étude des signaux localement harmoniques
Nonstationarity characterizes transient physical phenomena. For example, it may be caused by a speed variation of an accelerating engine. Similarly, because of the Doppler effect, a stationary sound emitted by a moving source is perceived as being nonstationary by a motionless observer. These examples lead us to consider a class of nonstationary signals formed from stationary signals whose stationarity has been broken by a physically relevant deformation operator. After describing the considered deformation models (chapter 1), we present different methods that extend the spectral analysis and synthesis to such signals. The spectral estimation amounts to determining simultaneously the spectrum of the underlying stationary process and the deformation breaking its stationarity. To this end, we consider representations of the signal in which this deformation is characterized by a simple operation. Thus, in chapter 2, we are interested in the analysis of locally deformed signals. The deformation describing these signals is simply expressed as a displacement of the wavelet coefficients in the time-scale domain. We take advantage of this property to develop a method for the estimation of these displacements. Then, we propose an instantaneous spectrum estimation algorithm, named JEFAS. In chapter 3, we extend this spectral analysis to multi-sensor signals where the deformation operator takes a matrix form. This is a doubly nonstationary blind source separation problem. In chapter 4, we propose a synthesis approach to study locally deformed signals. Finally, in chapter 5, we construct a time-frequency representation adapted to the description of locally harmonic signals
17

Gilet, Guillaume. "Ajouts de détails visuels complexes en temps réel pour la synthèse d'images". Strasbourg, 2009. http://www.theses.fr/2009STRA6074.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse s'inscrivent dans le domaine de l'affichage réaliste de scènes synthétiques et s'attachent à représenter des objets visuellement riches et possédant une mésostructure complexe. Cette thèse propose d'aborder le problème posé par cette complexité en découplant le rendu de la macro-structure géometrique d'un objet et le rendu des "détails" (la meso-structure). Les contributions incluent la réalisation d'une méthode de rendu hybride rasterisation / lancer de rayon profitant des dernières accélérations graphiques. Concrétement, la méthode proposée permet d'afficher un objet ayant une apparence complexe tout en gardant des performances interactives. Cette méthode est mise en évidence au travers d'applications telles l'affichage interactif de modèles volumiques de grande taille ou la réalisation d'un outil de modélisation et de visualisation de mésostructure procédurale à partir d'une méthode d'hypertextures. Finalement, cette thèse propose des travaux préliminaires visant à faciliter la création de mésostructures en présentant une méthode de génération procédurale de textures non-structurées de couleur à partir d'une image d'exemple
This thesis relates to the field of realistic rendering of synthetic scenes and focuses on the representation of visually realistic objects with a complex mesostructure. This work address the topic by decoupling the rendering of the macrostructure of the object from the rendering of the visual details (the mesostructure). The contributions of these thesis include the conception of a hybrid rasterization/ray casting method using last generation graphics hardware. In practice, the proposed method allows the rendering of a visually complex object while preserving interactive performances. This technique is highlighted through several applications, such as the visualization of large scale volumetric data or the conception of a modelisation/visualisation tool for procedural mesostructures defined by hypertextures. In addition, this thesis also proposes preliminary works on automatic creation of mesostructure by presenting a technique for procedural generation of unstructured color texture by example
18

Altisen, Karine. "Application de la synthèse de contrôleur à l'ordonnancement de systèmes temps-réel". Grenoble INPG, 2001. http://www.theses.fr/2001INPG0125.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose une méthode constructive et incrémentale inspirée du paradigme de la synthèse de contrôleur pour calculer l'ordonnanceur d'un système temps-réel. Nous avons développé deux algorithmes de systhèse de contrôleurs pour des propriétés de sûreté. Nous avons montré que l'ordonnanceur d'un système temps-réel est un contrôleur spécifié par deux types de contraintes : des contraintes d'ordonnançabilité qui caractérisent les propriétés dynamiques des processus à ordonnancer et de leur environnement et des contraintes qui expriment des politiques d'ordonnancement relatives à l'utilisation des ressources partagées. Nous avons également défini une méthodologie pour la modélisation incrémentale du système à ordonnancer à partir des processus, de leur synchronisation et de leur comportement temporel. La méthodologie permet d'unifier les résultats théoriques et pratiques concernant l'ordonnancement temps-réel. Nous illustrons son application à travers des exemples.
19

Chamseddine, Ahmad. "Conception et réalisation d'un système d'imagerie passive temps réel à détection directe en gamme millimétrique". Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-267.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Giraud, Olivier André Louis. "Architecture logicielle haute performance pour la simulation temps réel synchrone d'objets physiques multisensoriels : retour d'effort, synthèse de sons, synthèse d'images". Grenoble INPG, 1999. http://www.theses.fr/1999INPG0078.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet fondateur de l'acroe est le developpement et la promotion d'outils de simulation informatique d'objets du monde reel par la modelisation des phenomenes physiques qui le composent et le regissent. Ce projet donne naissance a des recherches sur trois axes : la definition d'un formalisme de conception modulaire des modeles physiques (cordis-anima), la conception de logiciels implementant ce formalisme et la recherche d'outils d'interaction homme-machine a haute performance. Mon etude porte sur la realisation d'un logiciel de simulation en temps reel exploitant au maximum l'architecture teluris composee d'un ordinateur powerchallenge multiprocesseur de silicon graphics avec sa carte video, d'une carte d'entree-sortie sonore specifique et du transducteur gestuel retroactif de l'acroe. La premiere partie du document propose une etude de la mise en forme algorithmique du formalisme cordis-anima dans tous ses aspects : caracterisation des modules et placement de leur execution dans des algorithmes sequentiels en respectant le flux de donnees circulant entre ces modules pour des simulations mono a multifrequence et mono a multiprocesseur. La deuxieme partie presente l'analyse des performances de calcul des dispositifs d'interaction et de la machine de calcul. Nous y observons en particulier le debit de communication entre ces elements ainsi qu'entre les processeurs et la memoire de la machine de calcul et par extension entre les processeurs pour une simulation multiprocesseur par memoire partagee. Y sont aussi developpes quelques elements decrivant le comportement du compilateur de langage c du systeme qui nous ont permis d'ecrire du code a haut rendement pour les processeurs mips r8000. Enfin, dans une troisieme partie, je decris l'implementation du moteur de calcul faite en fonction des observations de performance effective et de la compilation des diverses experimentations de modelisation et de simulation constituant le patrimoine de l'acroe.
21

Necciari, Thibaud. "Masquage auditif temps-fréquence : mesures psychoacoustiques et application à l'analyse-synthèse des sons". Phd thesis, Université de Provence - Aix-Marseille I, 2010. http://tel.archives-ouvertes.fr/tel-00553006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nombreuses applications audio, telles que les outils d'analyse-synthèse ou les codeurs audio, nécessitent des représentations des signaux linéaires et adaptées aux signaux non stationnaires. Typiquement, ces représentations sont de types « Gabor » ou « ondelettes ». Elles permettent de décomposer n'importe quel signal en une somme de fonctions élémentaires (ou « atomes ») bien localisées dans le plan temps-fréquence (TF). Dans le but d'adapter ces représentations à la perception auditive humaine, ce travail porte sur l'étude du masquage auditif dans le plan TF. Dans la littérature, le masquage a été considérablement étudié dans les plans fréquentiel et temporel. Peu d'études se sont intéressées au masquage dans le plan TF. D'autre part, toutes ces études ont employé des stimuli de longue durée et/ou large bande, donc pour lesquels la concentration d'énergie dans le plan TF n'est pas maximale. En conséquence, les résultats ne permettent pas de prédire les effets de masquage entre des atomes TF. Au cours de cette thèse, le masquage a donc été mesuré dans le plan TF avec des stimuli — masque et cible — dotés d'une localisation TF maximale : des sinusoïdes modulées par une fenêtre Gaussienne de courte durée (ERD = 1,7 ms) et à support fréquentiel compact (ERB = 600 Hz). La fréquence du masque était fixée à 4 kHz et son niveau à 60 dB SL. Masque et cible étaient séparés en fréquence, en temps, ou en TF. Les résultats pour les conditions TF fournissent une estimation de l'étalement du masquage TF pour un atome. Les résultats pour les conditions fréquence et temps ont permis de montrer qu'une combinaison linéaire des fonctions de masquage fréquentiel et temporel ne fournit pas une représentation exacte du masquage TF pour un atome. Deux expériences supplémentaires ont été menées afin d'étudier les effets du niveau et de la fréquence du masque Gaussien sur le pattern de masquage fréquentiel. Une diminution du niveau du masque de 60 à 30 dB SL a provoqué un renversement de l'asymétrie des patterns de masquage et un rétrécissement de l'étalement spectral du masquage, conformément à la littérature. La comparaison sur une échelle ERB des patterns mesurés à 0,75 et 4 kHz a révélé un étalement spectral du masquage similaire pour les deux fréquences. Ce résultat est cohérent avec l'analyse fréquentielle à facteur de qualité constant du système auditif. La thèse s'achève sur une tentative d'implémentation des données psychoacoustiques dans un outil de traitement du signal visant à éliminer les atomes inaudibles dans les représentations TF des signaux sonores. Les applications potentielles d'une telle approche concernent les outils d'analyse-synthèse ou les codeurs audio.
22

Letellier, Laurent. "Synthèse d'images temps réel sur réseau linéaire de processeurs SIMD : algorithmes et architectures". Toulouse, INPT, 1993. http://www.theses.fr/1993INPT143H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les images de synthese ont envahi notre quotidien. La puissance de calcul requise pour des applications temps reel rend incontournable l'utilisation de structures paralleles. Un tel contexte nous a conduit a evaluer une structure parallele de processeurs simd, sympati2, realisee pour le traitement d'images. L'objectif de cette these est de proposer un accelerateur graphique modulaire et programmable autorisant un bon rapport cout/performance. La parallelisation des algorithmes classiques en synthese d'images sur sympati2 a permis de degager les limites de la structure dans ce domaine. Les points difficiles nous conduisent a evaluer une machine derivee sympatix, qui dispose d'un reseau rapide inter-processeurs. Ce dernier reporte la gestion de la coherence des messages au niveau des processeurs diminuant d'autant les performances. Cette etude propose un reseau d'intercommunication dont les acces sont geres par des priorites materialisees par la presence de jetons. Cette technique garantit, de maniere simple, la coherence des messages en circulation. Les simulations de cette nouvelle architecture ont montre que les performances de la structure laissent apparaitre une limite liee au caractere synchrone de fonctionnement simd. Une procedure, denommee changement de contexte, est presentee. Elle assouplit le fonctionnement rigide du mode smind et augmente ainsi fortement le niveau de parallelisme des algorithmes. Enfin, la double competence, traitement d'images et synthese d'images, de l'accelerateur propose a l'issue de ce travail semble etre un atout interessant a l'heure du multimedia
23

Jesus, Paulo Renato Cardoso de. "Poétique de l'ipse : temps, affection et synthèse dans l'unité du Je théorique kantien". Paris, EHESS, 2006. http://www.theses.fr/2006EHES0096.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le « Je théorique » kantien constitue une unité sémantique unifiante qui se produit de façon epigénétique. Ainsi cette fonction cognitive spontanée - poïétique - s'avère-t-elle à la fois irréductible à une simple « forme logique » et non-assimilable à une « entité substantielle ». Le « Je pense », l'aperception transcendantale, est un pouvoir-force morphogénétique qui se déploie sur le mode d'un processus continu de synthèse virtuellement infini dont la visée est la production d'un système organique de connaissance. Sa modalité logique est la nécessité et sa manière d'agir est méta-phénoménologique ; « devoir pouvoir accompagner toutes mes représentations », signifie « instituer la forme-acte de toute représentation », à savoir son appartenance à un seul et même moi. En pensant Kant avec Hume, Leibniz et Fichte, cette étude tente d'élucider l'instabilité inévitable du passage critique à un Cogito postmétaphysique
The Kantian "theoretical I" constitutes a unifying semantic unity wich produces itself epigenetically. Thus, this spontaneous - poetic - cognitive function appears to be both irreducible to a mere "logical form" and non-identifiable with a "substantial entity". The "I think", transcendental apperception, is a morphogenetic power-force wich unfolds as a continuous - virtually infinite - process of synthesis whose aim is the production of an organic system of knowledge. Its logical modality is necessity and its manner of acting is metaphenomenological ; "to must be capable of accompanying all my representations" means "to institute the act-form of all representation as such", namely their belonging to one and the same self. By questioning Kant with Hume, Leibniz and Fichte, this research attempts to elucidate the inevitable instability of the critical transition to a postmetaphysical Cogito
24

Boudouani, Nassima. "Architectures reconfigurables dynamiquement : synthèse matérielle d'opérateurs de détection et d'estimation de mouvement temps réel". Cergy-Pontoise, 2004. http://www.theses.fr/2004CERG0201.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail effectué dans cette thèse concerne l'implantation temps réel d'opérateurs de détection et d'estimation de mouvement sur FPGA reconfigurables dynamiquement. Le détecteur de mouvement que nous avons étudié est basé sur les champs de Markov ; il présente un grain de calcul variable et son caractère récursif a longtemps constitué un frein à son implantation temps réel. Nous avons proposé des solutions pour rompre cette récursion et avons suggéré deux types d'implantations sur architectures reconfigurables à grain fin : l'une dynamique évaluée sur le FPGA AT40K40 d'Atmel et l'autre statique implantée sur les FPGA XC4000 et Virtex de Xilinx. Nous avons pour chacune de ces solutions détaillé l'organisation et la gestion des données en mémoire. Les estimateurs de mouvement que nous avons abordés sont basés sur la méthode d'appariement de blocs. La difficulté de l'implantation temps réel de l'estimateur de mouvement à recherche exhaustive provient principalement de la grande quantité de données à traiter ; nous avons évalué différentes solutions visant à réduire le nombre d'opérations à faire ou le nombre de données à traiter, et avons montré la faisabilité de leurs implantations temps réel sur des circuits reconfigurables à grain fin de type AT40K40. Pour l'ensemble des algorithmes étudiés, nous avons proposé un découpage en configurations prenant en compte des contraintes liées aux ressources de calcul disponibles, au taux de parallélisme possible, à la bande passante mémoire, et aux dépendances de données entre configurations successives. Ces opérateurs viennent enrichir la bibliothèque d'IP en cours de construction pour le projet Ardoise (Architecture reconfigurable dynamiquement orientée image et signal embarquée) et peuvent s'utiliser comme éléments de base pour d'autres applications comme la compression vidéo
The work described in this thesis concerns the real time implementation of motion detection and estimation operators on dynamically reconfigurable FPGA. The motion detector that we studied is based on Markov fields ; it presents variable granularity and its recursive feather prevents its real time implementation. We proposed solutions to break this recursion and we suggested two types of implementations on fine-grained reconfigurable architectures : the dynamic one evaluated on AT40K40 Atmel FPGA, and the static one evaluated on XC4000 and Virtex FPGA. For each solution we detailed the data organization and management. The motion estimators studied are based in block-matching method. The difficulty of the real time implementation of the full search block-matching motion estimator is mainly due to the high quantity of data used in calculation. We evaluated different solutions used to reduce the number of operations or the number of data to process and we demonstrated that their real time implementations are possible on fine-grained reconfigurable circuits like AT40K40. For all applications, we proposed partitioning which takes into account constraints like available computing area, data parallelism, memory bandwidth, and data dependencies between successive configurations. These operators contribute to the Ardoise (Architecture reconfigurable dynamiquement orientée image et signal embarquée) library elaboration and can be used like basics components in other applications like video compression
25

Mavrocordatos, Constantin. "Étude et réalisation d'un calculateur temps réel pour un radar à synthèse d'ouverture aéroporté". Toulouse, ENSAE, 1990. http://www.theses.fr/1990ESAE0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le radar à synthèse d'ouverture est un instrument aéroporté (ou spatial) permettant la prise d'images du sol de haute résolution. Son fonctionnement, contrairement aux instruments optiques, ne dépend ni de la luminosité naturelle ni de la présence de nuages. Cette performance est atteinte au prix d'un traitement très exigeant en quantité de calculs. Un calculateur effectuant ce traitement en temps réel est étudié et réalisé. Il comporte une partie analogique et une autre numérique. Au cœur du système, un convoluteur à ondes acoustiques de surface effectue la convolution du signal radar avec une réplique programmable de 83 points complexes, en 6, 4 s. La partie numérique est composée d'une mémoire tournante de 8 Mbit, un générateur numérique des répliques et une interface de sortie. Une image de la région survolée est affichée en temps réel à bord sur un écran vidéo et peut également être enregistrée puis restituée au sol. Plusieurs images traitées par ce calculateur sont comparées. Leur excellente qualité démontre la validité du principe de traitement, s'appuyant sur l'utilisation d'un convoluteur à ondes acoustiques de surface.
26

González-Arroyo, Ramón. "Le concept de son en synthèse numérique". Paris 8, 2005. http://www.theses.fr/2005PA082602.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Guingo, Geoffrey. "Synthèse de texture dynamique sur objets déformables". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les mondes virtuels, l'apparence des objets mis en scène est un point crucial pour l'immersion de l'utilisateur. Afin d'approximer les relations lumière-matière, une manière communément mise en place est d’habiller les objets de la scène avec des textures. Afin d’aider les artistes dans le processus de création, des méthodes de synthèse et d'édition de texture ont vu le jour. Ces méthodes se différencient par les gammes de textures synthétisables, et notamment par la prise en compte des textures hétérogènes qui sont un réel défi. Ces textures sont composées de plusieurs régions aux contenus différents, dont la répartition est régie par une structure globale. Chacune des zones correspond à un matériau différent ayant une apparence et un comportement dynamique propre.Premièrement, nous proposons un modèle additif de textures statiques, permettant la synthèse à la volée de textures hétérogènes de tailles arbitraires à partir d'un exemple. Cette méthode comprend un modèle de bruit gaussien variant spatialement, ainsi qu'un mécanisme permettant la synchronisation avec une couche de structure. L’objectif est d’améliorer la variété de la synthèse tout en préservant des détails plausibles à petite échelle. Notre méthode se compose d'une phase d'analyse, composée d'un ensemble d'algorithmes permettant d'instancier les différentes couches à partir d'une image d'exemple, puis d'une étape de synthèse temps réel. Au moment de la synthèse, les deux couches sont générées indépendamment, synchronisées et ajoutées, en préservant la cohérence des détails même lorsque la couche de structure est déformée afin d'augmenter la variété.Dans un second temps, nous proposons une nouvelle approche pour modéliser et contrôler la déformation dynamique des textures, dont l'implantation dans le pipeline graphique standard reste simple. La déformation est modélisée à la résolution des pixels sous forme d'un warping dans le domaine paramétrique. Cela permet ainsi d'avoir un comportement différent pour chaque pixel, et donc dépendant du contenu de la texture. Le warping est défini localement et dynamiquement par une intégration en temps réel le long des lignes de flux d’un champ de vitesse pré-calculé, et peut être contrôlé par la déformation de la géométrie de la surface sous-jacente, par des paramètres d’environnement ou par édition interactive. Nous proposons de plus une méthode pour pré-calculer le champ de vitesse à partir d’une simple carte scalaire représentant des comportements dynamiques hétérogènes, ainsi qu’une solution pour gérer les problèmes d’échantillonnage survenant dans les zones sur-étirées lors de la déformation
In virtual worlds, the objects appearance is a crucial point for users immersion. In order to approximate light-matter relationships, a common way is to use textures. To help artists during the creative process, texture synthesis and texture editing methods have emerged. These methods are differentiated by the ranges of synthesizable textures, and especially by taking into account the heterogeneous textures. These textures are composed of several regions with different contents, whose distribution is lead by a global structure. Each of the zones corresponds to a different material having a specific appearance and dynamic behavior.First, we propose an additive model of static textures, allowing on-the-fly synthesis of heterogeneous textures of arbitrary sizes from an example. This method includes a spatially varying Gaussian noise pattern, as well as a mechanism for synchronization with a structure layer. The aim is to improve the variety of synthesis while preserving plausible small details. Our method consists of an analysis phase, composed of a set of algorithms for instantiating the different layers from an example image, then a real-time synthesis step. During synthesis, the two layers are independently generated, synchronized, and added, preserving details consistency even when the structure layer is deformed to increase variety.In a second step, we propose a new approach to model and control the dynamic deformation of textures, whose implementation in the standard graphical pipeline remains simple. The deformation is modeled at pixels resolution in the form of a warping in the parametric domain. Making possible to have a different behavior for each pixel, and thus depending of texture content. The warping is locally and dynamically defined by real-time integration along the flow lines of a pre-calculated velocity field, and can be controlled by the deformation of the underlying surface geometry, by parameters of environment or through interactive editing. In addition, we propose a method to pre-compute the velocity field from a simple scalar map representing heterogeneous dynamic behaviors, as well as a solution to handle sampling problems occurring in overstretched areas at the time. deformation
28

Olivero, Anaik. "Les multiplicateurs temps-fréquence : Applications à l’analyse et la synthèse de signaux sonores et musicaux". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4788/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le contexte de l'analyse/transformation/synthèse des signaux audio utilisant des représentations temps-fréquence, de type transformation de Gabor. Dans ce contexte, la complexité des transformations permettant de relier des sons peut être modélisée au moyen de multiplicateurs de Gabor, opérateurs de signaux linéaires caractérisés par une fonction de transfert temps-fréquence, à valeurs complexes, que l'on appelle masque de Gabor. Les multiplicateurs de Gabor permettent deformaliser le concept de filtrage dans le plan temps-fréquence. En agissant de façon multiplicative dans le plan temps-fréquence, ils sont a priori bien adaptés pour réaliser des transformations sonores telles que des modifications de timbre des sons. Dans un premier temps, ce travail de thèses intéresse à la modélisation du problème d'estimation d'un masque de Gabor entre deux signaux donnés et la mise en place de méthodes de calculs efficaces permettant de résoudre le problème. Le multiplicateur de Gabor entre deux signaux n'est pas défini de manière unique et les techniques d'estimation proposées de construire des multiplicateurs produisant des signaux sonores de qualité satisfaisante. Dans un second temps, nous montrons que les masques de Gabor contiennent une information pertinente capable d'établir une classification des signaux,et proposons des stratégies permettant de localiser automatiquement les régions temps-fréquence impliquées dans la différentiation de deux classes de signaux. Enfin, nous montrons que les multiplicateurs de Gabor constituent tout un panel de transformations sonores entre deux sons, qui, dans certaines situations, peuvent être guidées par des descripteurs de timbre
Analysis/Transformation/Synthesis is a generalparadigm in signal processing, that aims at manipulating or generating signalsfor practical applications. This thesis deals with time-frequencyrepresentations obtained with Gabor atoms. In this context, the complexity of a soundtransformation can be modeled by a Gabor multiplier. Gabormultipliers are linear diagonal operators acting on signals, andare characterized by a time-frequency transfer function of complex values, called theGabor mask. Gabor multipliers allows to formalize the conceptof filtering in the time-frequency domain. As they act by multiplying in the time-frequencydomain, they are "a priori'' well adapted to producesound transformations like timbre transformations. In a first part, this work proposes to model theproblem of Gabor mask estimation between two given signals,and provides algorithms to solve it. The Gabor multiplier between two signals is not uniquely defined and the proposed estimationstrategies are able to generate Gabor multipliers that produce signalswith a satisfied sound quality. In a second part, we show that a Gabor maskcontain a relevant information, as it can be viewed asa time-frequency representation of the difference oftimbre between two given sounds. By averaging the energy contained in a Gabor mask, we obtain a measure of this difference that allows to discriminate different musical instrumentsounds. We also propose strategies to automaticallylocalize the time-frequency regions responsible for such a timbre dissimilarity between musicalinstrument classes. Finally, we show that the Gabor multipliers can beused to construct a lot of sounds morphing trajectories,and propose an extension
29

Wibaux, Luc. "Une méthode de synthèse d'images échographiques : application à des simulateurs médicaux d'entraînement". Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-502.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les médecins souhaitent améliorer leur formation par l'utilisation de simulateur d'entraînement. Cette évolution est possible grâce a l'émergence de nouvelles techniques comme la synthèse d'image et le retour d'effort. Dans ce cadre, nous avons travaillé sur la synthèse d'images échographiques en temps-réel. D'autres équipes de recherche ont adopté une solution basée sur la construction d'une base de donnée d'images utilisée lors de la simulation. Cette solution pose un certain nombre de problèmes, comme le mauvais positionnement d'artefacts sur les images de la simulation. Nous avons pris comme objectif d'établir une méthode de synthèse d'images échographiques s'appuyant sur la physique. Pour cela nous avons adapté l'algorithme du lancer de rayon à notre problème et utilisé des textures solides. Ceci nous a permis de rendre les principales caractéristiques des images échographiques de façon réaliste. La méthode est indépendante du modèle choisi pour la géométrie des organes
Toutefois les performances d'affichage en dépendent, l'intersection entre les rayons et les objets représentant une partie importante des calculs. Une première maquette logicielle nous a permis de montrer la validité de notre méthode. Nous avons ensuite conçu un simulateur pour les amniocentèses. Pour ce simulateur, nous proposons une solution pour que la déformation des organes soit visible. Cette déformation utilise les résultats des calculs du modèle mécanique et la modélisation des organes au repos. Le prototype du simulateur a été présenté à deux conférences médicales. Les spécialistes sont convaincus de l'utilité d'un tel simulateur dans leur formation. Cette thèse décrit une méthode temps-réel de synthèse d'images échographiques qui a été validé sur un cas concret. Elle peut s'appliquer à tout autre simulateur
30

Tchuenkam, Tchoneng Honoré. "Techniques formelles pour le développement de systèmes de conduite de procédés manufacturiers : abstraction, spécification, synthèse et optimisation". Nancy 1, 1991. http://www.theses.fr/1991NAN10413.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous utilisons des techniques classiques d'abstraction, de spécification et de synthèse de programmes pour proposer une démarche de développement formel de systèmes temps réels dans le cadre (restreint) de la conduite des processus de productions discrètes. Dans le type de problème que nous avons à traiter, on dispose d'une installation industrielle dont les composants assurent des fonctions élémentaires de transformation, d'assemblage et de manutention de produits. Ces composants peuvent être mis en marche par des actionneurs et des capteurs fournissent des renseignements sur l'état du système et des produits. On souhaite construire un logiciel qui pilote l'installation existante pour obtenir un système global ayant certaines fonctionnalités. Nous préconisons une démarche qui consiste à:―faire une description abstraite et formelle de l'installation existante sans préjuger de son utilisation future, en combinant le formalisme des types abstraits et une extension temps réelle de la logique temporelle;―spécifier formellement le résultat attendu de son fonctionnement en indiquant essentiellement la relation qui existe entre les produits fabriqués et ceux de base. A partir des éléments précédents, nous synthétisons des programmes séquentiels de commande de l'installation donnée. Nous optimisons ensuite ces programmes en essayant de les paralléliser au maximum.
31

Tăutu-Ruhen, Eugène Dumitru. "Art et esprit dans la philosophie de Hegel : essai de synthèse". Poitiers, 2005. http://www.theses.fr/2005POIT5008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous sommes avertis, par Heidegger, dans son « Acheminement vers la parole » , 1976, p. 276, « Toute pensée qui déploie le sens est poésie ». C'est le point de départ pour son interprétation phénoménologique sur la « Critique de la raison pure ». L'essai de synthèse esthétique est construit sur celui-ci. L'art du verbe aufheben assume l'assomption, l'histoire de l'humanité où l'Esprit devient par l'homme une œuvre d'art, le prix du sacrifice, le seul attribué à priori à l'âme. Réponse ou mise en demeure de l'Être, Délivrance ou Résurrection, elle est la seule qui peut créer Temps de Vie et Vie en elle-même, par éclaircissement tragique. Passage, dépassement de l'Esprit sur la mort ou synthèse tragique, la réponse est la question murée. Comprendre l'immortalité de l'âme, avoir la clairvoyance de l'agnelle « Miorita », dire, faire, accomplir « Oui ! », dans tous les printemps de l'homme, à la Vie, à l'Amour Universel, avec toute la faim et la soif de la Vérité. Le sens est donné à la fin, par le poème « De l'Être de la sagesse », la septième réponse imaginaire du roman épistolaire « le pèlerin de Bordeaux ». Le point 3 de la trilogie, la foi de la pure intellection et sa réponse imaginaire est composé en cinq chapitres (I) pareil avec le titre du point 3 de la trilogie ; (II) esprit tragique et /ou consubstantialité ; (III) entre le nombre d'or et la philosophie de l'esprit ; (IV) phénoménologie et/ou tautologie et (V) le poème « De l'Être de la Sagesse » qui est le seul présenté, pour mettre au monde et prendre sur soi la réponse imaginaire de la foi, dans le cœur de recueillement innig keimen (Hölderlineen), par la Réponse à la révélation d’Hypérion et à la Phénoménologie de l'Esprit, par la réponse à son Être en soi, De l’Esprit (Exil et Retour) à La Sagesse de la Terre
According to Heidegger, in his book : « On the Way to language », 1976, p. 276, “Any thought which deploys sense is poetry”. This is the starting point in his phenomenological interpretation und testimony of “The criticism of pure reason”. His attempt of an aesthetic synthesis stems from this starting point. The art of the verb aufheben recognises the Assumption of humanity, its History where “the spirit through mankind becomes art”, the price of sacrifice, a priori the only price given the soul. Whether a response from the Being or a demand, whether a Deliverance or a Resurrection, the soul is the only thing that can either create a lifespan or life itself thanks to its tragic enlightening. Is death a transition (by transcendentalism?), the overtaking of the spirit, or tragic summary? The answer lies trapped within the question. One needs to understand the immortality of the soul, one needs to be as clear sighted as the ewe “Miorita”, with a positive ness in word, in action an in accomplishment, saying “Yes” in all our ages, yes to life , yes to universal love, with a craving hunger and thirst for the Truth. We are given the meaning at the end with the poem “About the Being of Wisdom” which is the seventh imaginary answer to the epistolary novel “Bordeaux's Pilgrim”. Third point of trilogy : “THE FAITH OF THE INTELLECTUAL PURITY UND THE IMAGINARY ANSWER” continence five titres : (I) (le titre for the third point of trilogy); (II) THE TRAGIC SPIRIT UND/OR THE CONSUBSTANTIALITY; (III) INTO THE NUMBER OF QUANTITY IN GOLD UND THE PHILOSOPHY OF SPIRIT; (IV)THE PHENOMENOLOGY UND/ OR THE TAUTOLOGY; (V) the poem “ABOUT THE BEING OF WISDOM”, the only text of trilogy present, for to bring into the world und to take on oneself the answer imaginary of faith, by heart to germinate hölderliniens imaginary answer, by The answer at The Hyperion Revelation und at The Phenomenology of Spirit, by the answer in the to by of faith, of Spirit (the exile und the return) at Earth's Wisdom
32

Delprat, Nathalie. "Analyse temps-fréquence de sons musicaux : exploration d'une nouvelle méthode d'extraction de données pertinentes pour un modèle de synthèse". Aix-Marseille 2, 2001. http://www.theses.fr/1992AIX22053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these presente les resultats de l'exploration d'une nouvelle methode d'extraction de donnees a partir de l'analyse temps-frequence (ou temps-echelle) de sons musicaux en vue de leur resynthese par un modele non-lineaire. Plus precisement, l'idee est d'essayer de mettre en evidence et d'extraire dans le plan d'analyse une ou plusieurs trajectoires (les aretes) qui soient caracteristiques de la loi de modulation du modele choisi (ici la synthese par modulation de frequence). Dans ce but nous avons developpe une methode d'approximation semi-asymptotique des coefficients de la transformee de gabor (ou en ondelettes) d'un signal et defini les nouvelles notions d'arete et de squelette. Ceci nous a permis de determiner un critere d'extraction a partir de la phase de la transformee qui permet de visualiser des trajectoires dans le cas de sons naturels complexes. Une etude approfondie des nouvelles images obtenues a ete necessaire en particulier a cause des interactions entre aretes (phenomenes de fusion ou fission) et de la formation de ce que l'on a appele les bulles. L'interpretation de la forme et de l'evolution des aretes a notamment permis d'etablir des liens interessants entre aretes et diagrammes des phases, aretes et taille de la fonction analysante. Les interactions entre trajectoires, inevitables du fait de la non-adaptativite de la fenetre d'analyse, rendent difficile l'acces direct a l'information donc a l'estimation des parametres dans le cas d'un modele non-lineaire. Cependant, les differents essais de resynthese effectues et les methodes d'analyse adaptatives qui se developpent actuellement offrent des perspectives interessantes dans la poursuite de cette recherche
33

Jain, Ankit. "Detection on HF radio transmitters using passive geolocation techniques". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0128/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transmission radioélectrique à longue distance dans la bande HF permet de couvrir de vastes zones géographiques à l’aide d’infrastructures légères et mobiles. Elle est donc bien adaptée pour établir des communications lors d’opérations militaires ou pour le déploiement rapide d'un réseau de communication agile lors d'opérations humanitaires. Dans ce contexte, il est important de pouvoir localiser les émetteurs inconnus par l’analyse des signaux électromagnétiques de communication. L’objectif de la thèse est de développer une technique de géolocalisation alternative et complémentaire, intitulée Time Difference of Arrival (TDoA), qui a rarement été étudiée dans le cas de la propagation ionosphérique. Dans un premier temps, l'algorithme de géolocalisation HF basé sur la technique TDoA est adapté et optimisé par des simulations paramétriques. Les résultats de simulation montrent que l'augmentation du nombre de récepteurs entraîne une amélioration significative de la précision de géolocalisation. Afin d'étudier la faisabilité de mise en oeuvre d'un système de géolocalisation HF basé sur la technique TDoA, plusieurs récepteurs HF pilotable à distance ont été développés à partir de modules de radio logicielle, et un réseau national de récepteurs a été déployé en France. Un concept original de sondage de canal croisé est proposé et décrit mathématiquement. Il permet d’évaluer les différences de durée de propagation entre les signaux reçus sur deux récepteurs synchronisés distincts. Les résultats expérimentaux collectés montrent qu'il est possible de localiser les émetteurs HF dans des conditions favorables avec une erreur de géolocalisation relative comprise entre 0,1 et 10% de la distance réelle au sol. Les données collectées lors de la campagne de mesure sont analysées de manière statistique afin d’évaluer la performance de l'algorithme de géolocalisation et de définir les paramètres les plus pertinents à prendre en compte pour déployer cette technique dans une approche opérationnelle
Long-range radio transmission in the HF band can cover large geographical areas using light and mobile equipment. It is therefore well suited for communications during military operations orfor the rapid deployment of an agile communication network during humanitarian operations. In this context, it is important to determine the geographic location of the transmitters by analyzing the electromagnetic communication signals. The aim of the thesis is to develop an alternative, complementary geolocation technique, entitled Time Difference of Arrival (TDoA) that has rarely been studied in the case of ionospheric propagation. As a first step, HF geolocation algorithm based on TDoA is setup and analyzed by parametric software simulations. Simulation results demonstrate that increasing the number of receivers leads to a significant improvement in the geolocation accuracy. In order to study the feasibility of a practical HF geolocation system based on TDoA, multiple remotely controllable HF receivers are designed using software defined radio (SDR) modules and a country wide operational receiver network is deployed in France. A concept of cross-channel sounding along with its mathematical description is proposed to evaluate the propagation duration differences between the signals captured by two distinct receivers. Preliminary experimental results show that it is possible to locate the HF transmitters under favorable conditions with a relative geolocation error ranging from about 0.1 to 10% of the actual ground distance. Data captured during the large scale measurement campaign are analyzed statistically to evaluate the performance of the geolocation algorithm and define parameters that could be considered in an operational approach
34

Desruelles, Guillaume. "Contribution à l'étude d'un système d'imagerie passive en gamme millimétrique en utilisant la technique de synthèse d'ouverture". Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10169/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse consiste à étudier un dispositif d'imagerie passive en gamme millimétrique pour la détection d'objets faiblement dissimulés en vue d'applications pour la sécurité des personnes. En s'abstenant d'éléments émetteurs nous assurons l'inoffensivité du dispositif. La détection s'effectue donc par radiométrie dans une bande de fréquences autour de 140 GHz afin de profiter du rayonnement important de la brillance spectrale des matériaux. Pour obtenir une image précise de la scène observée un unique récepteur n'est pas suffisant. Nous avons opté pour un dispositif interférométrique à haute résolution composé de plusieurs récepteurs radiométriques à détection I/Q (en phase et en quadrature). La mesure est ainsi basée sur le principe de synthèse d'ouverture permettant une résolution spatiale importante tout en conservant des antennes intégrables afin de limiter l'encombrement des récepteurs. Dans cette bande de fréquence, la conception des récepteurs nécessite la réalisation de circuits MMIC en technologie métamorphique HEMT 70 nm sur AsGa. Leurs performances permettent d'étudier précisément par simulation le comportement des récepteurs, plus particulièrement les erreurs ajoutées par ces derniers dans le but de les modéliser pour faciliter la reconstruction d'image. L'architecture de l'interféromètre permet de diminuer le nombre de récepteurs employés par rapport à la résolution de l'image reconstruite. La reconstruction d'image est obtenue par la solution en bande limitée du problème inverse. Ces travaux permettent de déterminer les caractéristiques du système en fonction des performances associées aux applications envisagées
The aim of this thesis is to study a passive imaging system in the millimeter range for the remote sensing of lower concealed objects applied to human security. The inoffensive character of the device is ensured by the lack of active emitter devices. The detection is a radiometric remote sensing within a frequency band centered around 140 GHz in order to benefit from the important radiation of the material spectral brightness. To get a clear picture of the observed scene, a single receiver is not enough. We decided to develop a high-resolution interferometric composed of several radiometric I / Q (in-phase and quadrature) receptors. The measurement is based on the principle of synthetic aperture allowing an important spatial resolution while maintaining integrated antennas in order to limit the size of the receivers. In this frequency band, the design of receivers requires the realization of MMIC devices, using the metamorphic HEMT 70 nm on GaAs technology from OMMIC. Their performance allow a precise study of the simulated behavior of receivers, mainly the added errors, in order to facilitate the model for image reconstruction. The architecture of the interferometer reduces the number of receivers used with respect to the resolution of the reconstructed image. The image reconstruction is obtained by band-limited solution of the inverse problem. This work identifies the characteristics of the system in function of the performances associated with applications
35

Cuesta, Fernand. "Synthèse des ressources de communication pour la conception de systèmes embarqués temps réel flots de données". Nice, 2001. http://www.theses.fr/2001NICE5659.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Bohé, Julien. "Administration intraveineuse continue d'acides aminés et synthèse protéique musculaire chez l'homme : études temps- et dose-réponse". Lyon 1, 2004. http://www.theses.fr/2004LYO10003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il est connu depuis longtemps que l'administration d'acides aminés (AA) stimule la synthèse protéique musculaire (SPM) mais la plupart des mécanismes de la stimulation sont imparfaitement connus. Nous avons étudié chez l'homme sain les effets au cours du temps d'une administration intraveineuse continue d'AA (n=6) ainsi que les effets de l'administration de doses différentes d'AA (n=16) sur la SPM. La SPM était appréciée par la mesure en spectrométrie de masse de l'incorporation dans les protéines du muscle d'un AA marqué par un isotope stable. Nous avons montré : 1) la stimulation de la SPM varie au cours de l'administration continue d'AA ; 2) la SPM est saturée au-dessus d'un débit de perfusion des AA ; 3) la SPM n'est pas contrôlée par la concentration intracellulaire musculaire en AA mais plutôt par la concentration extracellulaire en AA. Ce travail ouvre des perspectives nouvelles dans la pratique de la nutrition artificielle délivrée en continue chez les patients de réanimation.
37

Bouthors, Antoine. "Rendu réaliste de nuages en temps réel". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10099.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les jeux vidéos et les effets spéciaux ont un besoin constant d'images plus réalistes de scènes naturelles, ce qui inclut les nuages. Les méthodes traditionnelles de synthèse d'images impliquent des calculs coûteux, ce qui qui limite leur réalisme. Dans cette thèse, nous proposons de nouvelles approches pour le rendu de nuages à la fois réalistes et rapides. Ces objectifs sont atteints via une méthodologie s'appuyant sur des approches à la fois physiques et phénoménologiques. Dans la première partie de cette thèse, nous étudions les nuages du point de vue d'un observateur humain, ce qui nous permet d'identifier les éléments visuels importants caractérisant les nuages. Ces éléments visuels sont ceux que nous cherchons à reproduire dans un but de réalisme. Dans la deuxième partie nous conduisons une étude expérimentale du transport de la lumière dans une dalle de nuage en utilisant les lois du transfert radiatif. Cette étude nous permet de mieux comprendre le transport de la lumière dans les nuages à des échelles mésoscopiques et macroscopiques, de trouver l'origine de ces éléments visuels, et de déduire de nouveaux modèles de transport de la lumière phénoménologiques efficaces. Dans la troisième partie nous proposons deux nouvelles méthodes permettant le rendu de nuages réaliste en temps-réel basées sur les résultats de notre étude. Ces méthodes sont optimisées pour le matériel graphique. La qualité de nos résultats est débattue et nous esquissons des axes de recherche future permettant d'améliorer à la fois la vitesse et le réalisme de nos méthodes
Video games and visual effects have always the need for more realistic images of natural scenes, including clouds. Traditional computer graphics methods involve expensive computations which currently limits their realism. In this thesis we propose new approaches for the rendering of clouds that are both realistic and fast. These goals are achieved using a methodology relying on both physical and phenomenological approaches. In the first part of this thesis we study the clouds from the point of view of a human observer, which allows us to identify the important visual features that characterize clouds. These features are the ones we seek to reproduce in order to achieve realism. In the second part we conduct an experimental study of light transport in a slab of cloud using the laws of radiative transfer. This study allows us to better understand the physics of light transport in clouds at a mesoscopic and macroscopic scale, to find the origin of the visual features of clouds, and to derive new, efficient phenomenological models of light transport. In the third part we propose two new methods for the rendering of clouds based on the findings of our study. The first model is aimed at stratiform clouds and achieves realistic rendering in real-time. The second model is aimed at culumiform clouds and achieves realistic rendering in interactive time. These models are optimized for graphics hardware. The quality of our results and models are discussed and we sketch directions for future research that can improve both the speed and the realism of our methods
38

Bouthors, Antoine. "Rendu réaliste de nuages en temps réel". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00319974.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les jeux vidéos et les effets spéciaux ont un besoin constant d'images plus réalistes de scènes naturelles, ce qui inclut les nuages. Les méthodes traditionnelles de synthèse d'images impliquent des calculs coûteux, ce qui qui limite leur réalisme. Dans cette thèse, nous proposons de nouvelles approches pour le rendu de nuages à la fois réalistes et rapides. Ces objectifs sont atteints via une méthodologie s'appuyant sur des approches à la fois physiques et phénoménologiques. Dans la première partie de cette thèse, nous étudions les nuages du point de vue d'un observateur humain, ce qui nous permet d'identifier les éléments visuels importants caractérisant les nuages. Ces éléments visuels sont ceux que nous cherchons à reproduire dans un but de réalisme. Dans la deuxième partie nous conduisons une étude expérimentale du transport de la lumière dans une dalle de nuage en utilisant les lois du transfert radiatif. Cette étude nous permet de mieux comprendre le transport de la lumière dans les nuages à des échelles mésoscopiques et macroscopiques, de trouver l'origine de ces éléments visuels, et de déduire de nouveaux modèles de transport de la lumière phénoménologiques efficaces. Dans la troisième partie nous proposons deux nouvelles méthodes permettant le rendu de nuages réaliste en temps-réel basées sur les résultats de notre étude. Ces méthodes sont optimisées pour le matériel graphique. La qualité de nos résultats est débattue et nous esquissons des axes de recherche future permettant d'améliorer à la fois la vitesse et le réalisme de nos méthodes.
39

Boubekeur, Tamy. "Traitement Hiérarchique, Edition et Synthèse de Géométrie Numérisée". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00260917.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La représentation des surfaces du monde réel dans la mémoire d'une machine peut désormais être obtenue automatiquement via divers périphériques de capture tels que les scanners 3D. Ces nouvelles sources de données, précises et rapides, amplifient de plusieurs ordres de grandeur la résolution des surfaces 3D, apportant un niveau de précision élevé pour les applications nécessitant des modèles numériques de surfaces telles que la conception assistée par ordinateur, la simulation physique, la réalité virtuelle, l'imagerie médicale, l'architecture, l'étude archéologique, les effets spéciaux, l'animation ou bien encore les jeux video. Malheureusement, la richesse de la géométrie produite par ces méthodes induit une grande, voire gigantesque masse de données à traiter, nécessitant de nouvelles structures de données et de nouveaux algorithmes capables de passer à l'échelle d'objets pouvant atteindre le milliard d'échantillons. Dans cette thèse, je propose des solutions performantes en temps et en espace aux problèmes de la modélisation, du traitement géométrique, de l'édition intéractive et de la visualisation de ces surfaces 3D complexes. La méthodologie adoptée pendant l'élaboration transverse de ces nouveaux algorithmes est articulée autour de 4 éléments clés : une approche hiérarchique systématique, une réduction locale de la dimension des problèmes, un principe d'échantillonage-reconstruction et une indépendance à l'énumération explicite des relations topologiques aussi appelée approche basée-points. En pratique, ce manuscrit propose un certain nombre de contributions, parmi lesquelles : une nouvelle structure hiérarchique hybride de partitionnement, l'Arbre Volume-Surface (VS-Tree) ainsi que de nouveaux algorithmes de simplification et de reconstruction ; un système d'édition intéractive de grands objets ; un noyau temps-réel de synthèse géométrique par raffinement et une structure multi-résolution offrant un rendu efficace de grands objets. Ces structures, algorithmes et systèmes forment une chaîne capable de traiter les objets en provenance du pipeline d'acquisition, qu'ils soient représentés par des nuages de points ou des maillages, possiblement non 2-variétés. Les solutions obtenues ont été appliquées avec succès aux données issues des divers domaines d'application précités.
40

Chaillou, Christophe. "Étude d'un processeur de visualisation d'images de synthèse en temps réel exploitant un parallélisme massif objet : le projet I.M.O.G.E.N.E". Lille 1, 1991. http://www.theses.fr/1991LIL10024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet IMOGENE consiste en la définition d'une machine de rendu d'image de synthèse en temps réel. Nous envisageons le temps réel au sens strict; l'image est intégralement recalculée à chaque trame, c'est-à-dire 50 fois par seconde avec un balayage non-entrelacé (moitié moins si le balayage est entrelacé). Notre approche est radicalement différente de celle des modules graphiques existants que nous présentons et classons en fonction du parallélisme qu'ils exploitent. Nous n'utilisons pas de mémoire de trame. Toutes les opérations inter-objets sont effectuées après la conversion des objets en pixels (ce choix impose des limitations que nous mettons en évidence). Nous exploitons un parallélisme massif objet, le système de rendu comprend un grand nombre de processeur-objets. Pour une image donnée, chacun de ces processeurs traite une seule primitive graphique au rythme de balayage écran, les différents pixels sont traites en pipe-line. Le processeur-objet est compose d'unités très simples (additionneurs, registres,. . . ) Pour être aisément intégrable en VLSI. Pour limiter le nombre de processeurs-objets, nous définissons des processeurs traitant des primitives plus complexes que les facettes triangulaires, avec interpolations sur les profondeurs et l'éclairage, généralement utilisées
41

Roger, David. "Réflexions spéculaires en temps interactif dans les scènes dynamiques". Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réflexions spéculaires et brillantes sont très importantes pour notre perception des scèenes 3D, car elles fournissent des informations sur la forme et la matière des objets, ainsi que de nouveaux angles de vue. Elles sont souvent rendues avec peu de préecision en utilisant des cartes d?environnement. Nous avons créé des algorithmes plus préccis, sous les contraintes du rendu interactif et des scènes dynamiques, pour permettre des applications comme les jeux vidéos. Nous proposons deux méthodes pour les réflexions spéculaires. La première est basée sur la rasterization et calcule la position du reflet de chaque sommet de la scène, en optimisant itérativement la longueur des chemins lumineux. Ensuite, le fragment shader interpole lin´eairement entre les sommets. Cette méthode représente les effets de parallaxe ou dépendants du point de vue, et est mieux adaptée aux réflecteurs lisses et convexes. La deuxième est un algorithme de lancer de rayons sur GPU qui utilise une hiérarchie de rayons : les rayons primaires sont rendus par rasterization, puis les rayons secondaires sont regroup´es hiérarchiquement en cônes pour former un quad-tree qui est reconstruit à chaque image. La hiérarchie de rayons est ensuite intersectée avec tous les triangles de la scène en parallèle. Cette méthode est légèrement plus lente, mais plus générale et plus précise. Nous avons étendu cet algorithme de lancer de rayons en un lancer de cônes capable de modéliser les réflexions brillantes et un anti-crénelage continu. Nos techniques de lancer de rayons et de cones ont été implémentées dans le modèle de programmation du traitement de flux, pour une bonne efficacité de la carte graphique. Dans ce contexte, nous avons développé un nouvel algorithme hiérarchique de réduction de flux qui est une étape clé de beaucoup d?autres applications et qui a une meilleure complexité asymptotique que les méthodes précédentes
Specular and glossy reflections are very important for our perception of 3D scenes, as they convey information on the shapes and the materials of the objects, as well as new view angles. They are commonly rendered using environment maps, with poor accuracy. We have designed more precise algorithms, under the constraints of interactive rendering and dynamic scenes, to allow applications such as video games or dynamic walk-through. We propose two methods for specular reflections. The first relies on rasterization and computes the position of the reflection of each vertex of the scene, by optimizing iteratively the length of the light paths. Then, the fragment shader interpolates linearly between the vertices. This method can represent parallax and all view dependent effects, and is better suited to smooth and convex reflectors. The second is a GPU ray tracing algorithm using a hierarchy of rays: the primary rays are rendered with rasterization, and the secondary rays are grouped hierarchically into cones to form a quad-tree that is rebuilt at each frame. The ray hierarchy is then intersected with all the triangles of the scene in parallel. That method is slightly slower, but more general and more accurate. We have extended this ray tracing algorithm to cone tracing supporting glossy reflections and continuous anti-aliasing. Our ray and cone tracing techniques have been implemented under the stream processing model in order to use the GPU efficiently. In that context, we developed a new hierarchical stream reduction algorithm that is a key step of many other applications and has a better asymptotic complexity than previous methods
42

Roger, David. "Réflexions spéculaires en temps interactif dans les scènes dynamiques". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00326792.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réflexions spéculaires et brillantes sont très importantes pour notre perception des scèenes 3D, car elles fournissent des informations sur la forme et la matière des objets, ainsi que de nouveaux angles de vue. Elles sont souvent rendues avec peu de préecision en utilisant des cartes d?environnement. Nous avons créé des algorithmes plus préccis, sous les contraintes du rendu interactif et des scènes dynamiques, pour permettre des applications comme les jeux vidéos.
Nous proposons deux méthodes pour les réflexions spéculaires. La première est basée sur la rasterization et calcule la position du reflet de chaque sommet de la scène, en optimisant itérativement la longueur des chemins lumineux. Ensuite, le fragment shader interpole lin´eairement entre les sommets. Cette méthode représente les effets de parallaxe ou dépendants du point de vue, et est mieux adaptée aux réflecteurs lisses et convexes. La deuxième est un algorithme de lancer de rayons sur GPU qui utilise une hiérarchie de rayons : les rayons primaires sont rendus par rasterization, puis les rayons secondaires sont regroup´es hiérarchiquement en cônes pour former un quad-tree qui est reconstruit à chaque image. La hiérarchie de rayons est ensuite intersectée avec tous les triangles de la scène en parallèle. Cette méthode est légèrement plus lente, mais plus générale et plus précise. Nous avons étendu cet algorithme de lancer de rayons en un lancer de cônes capable de modéliser les réflexions brillantes et un anti-crénelage continu.
Nos techniques de lancer de rayons et de cones ont été implémentées dans le modèle de programmation du traitement de flux, pour une bonne efficacité de la carte graphique. Dans ce contexte, nous avons développé un nouvel algorithme hiérarchique de réduction de flux qui est une étape clé de beaucoup d?autres applications et qui a une meilleure complexité asymptotique que les méthodes précédentes.
43

Curfs, Caroline. "Etudes résolues en temps de la synthèse auto-propagée de composés du système aluminium-nickel-titane-carbone". Université Joseph Fourier (Grenoble), 2002. http://www.theses.fr/2002GRE10082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Lostanlen, Vincent. "Opérateurs convolutionnels dans le plan temps-fréquence". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE012/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de la classification de sons,cette thèse construit des représentations du signal qui vérifient des propriétés d’invariance et de variabilité inter-classe. D’abord, nous étudions le scattering temps- fréquence, une représentation qui extrait des modulations spectrotemporelles à différentes échelles. Enclassification de sons urbains et environnementaux, nous obtenons de meilleurs résultats que les réseaux profonds à convolutions et les descripteurs à court terme. Ensuite, nous introduisons le scattering en spirale, une représentation qui combine des transformées en ondelettes selon le temps, selon les log-fréquences, et à travers les octaves. Le scattering en spirale suit la géométrie de la spirale de Shepard, qui fait un tour complet à chaque octave. Nous étudions les sons voisés avec un modèle source-filtre non stationnaire dans lequel la source et le filtre sont transposés au cours du temps, et montrons que le scattering en spirale sépare et linéarise ces transpositions. Le scattering en spirale améliore lesperformances de l’état de l’art en classification d’instruments de musique. Outre la classification de sons, le scattering temps-fréquence et le scattering en spirale peuvent être utilisés comme des descripteurspour la synthèse de textures audio. Contrairement au scattering temporel, le scattering temps-fréquence est capable de capturer la cohérence de motifs spectrotemporels en bioacoustique et en parole, jusqu’à une échelle d’intégration de 500 ms environ. À partir de ce cadre d’analyse-synthèse, une collaboration artscience avec le compositeur Florian Hecker
This dissertation addresses audio classification by designing signal representations which satisfy appropriate invariants while preserving inter-class variability. First, we study time-frequencyscattering, a representation which extract modulations at various scales and rates in a similar way to idealized models of spectrotemporal receptive fields in auditory neuroscience. We report state-of-the-artresults in the classification of urban and environmental sounds, thus outperforming short-term audio descriptors and deep convolutional networks. Secondly, we introduce spiral scattering, a representationwhich combines wavelet convolutions along time, along log-frequency, and across octaves. Spiral scattering follows the geometry of the Shepard pitch spiral, which makes a full turn at every octave. We study voiced sounds with a nonstationary sourcefilter model where both the source and the filter are transposed through time, and show that spiral scattering disentangles and linearizes these transpositions. Furthermore, spiral scattering reaches state-of-the-art results in musical instrument classification ofsolo recordings. Aside from audio classification, time-frequency scattering and spiral scattering can be used as summary statistics for audio texture synthesis. We find that, unlike the previously existing temporal scattering transform, time-frequency scattering is able to capture the coherence ofspectrotemporal patterns, such as those arising in bioacoustics or speech, up to anintegration scale of about 500 ms. Based on this analysis-synthesis framework, an artisticcollaboration with composer Florian Hecker has led to the creation of five computer music
45

Tria, Mohamed. "Imagerie Radar à Synthèse d'Ouverture (RSO) Par Analyse En Ondelettes Continues Multidimensionnelles". Phd thesis, Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00011181.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail de thèse a porté sur "l'imagerie radar à synthèse d'ouverture par analyse en ondelettes continues multidimensionnelles". Ce travail de thèse a consisté à mettre en oeuvre des méthodes d'analyse temps-fréquence dans le domaine de l'imagerie SAR (Synthetic aperture Radar). Le principe de l'imagerie SAR consiste à illuminer une zone du sol avec le faisceau d'ondes éléctromagnétiques de l'antenne radar. Cette zone se compose de plusieurs points réflecteurs appartenant à une ou plusieurs cibles. Alors que le porteur se déplace sur sa trajectoire de vol, l'antenne émet périodiquement des impulsions qui parviennent à l'ensemble des cibles présentes dans la zone illuminée. Une partie non-négligeable de chaque impulsion est alors réfléchie par les cibles puis interceptée par le radar. L'ensemble des données collectées par le radar va permettre d'établir l'image de terrain en haute résolution via un algorithme de reconstruction d'images. Les méthodes classiques d'imagerie font l'hypothèse d'isotropie (les points imagés se comportent de la même manière selon l'angle sous lequel ils sont vus) et de blancheur (les points imagés ont le même comportement dans la bande fréquentielle émise) des réflecteurs imagés. Malheureusement, les hypothèses précédentes ne sont plus valables avec l'émergence de nouvelles capacités d'imagerie (large bande fréquentielle, grandes excursions angulaires,. . . ). L'objectif du travail de thèse a consisté à développer une méthode d'analyse temps-fréquence basée sur l'utilisation d'ondelettes continues permettant de mettre en lumière les phénomènes d'anisotropie et de coloration des points imagés. Ce type d'analyse se fonde sur le concept d'hyperimage qui permet d'associer à chaque pixel de l'image SAR, son comportement angulaire et fréquentiel. L'algorithme d'implantation de la transformée en ondelettes continues que nous avons proposé est basé sur la transformée de Fourier. Par conséquent, l'algorithme est à moindre coût en terme de temps de calcul en utilisant l'algorithme rapide de transformée de Fourier (FFT). .
The thesis work was about the " Synthetic Aperture Radar (SAR) imaging by using the multidimensional continuous wavelet analysis ". This work consisted in establishing time-frequency methods in the SAR domain. The principle of the SAR imaging consists in irradiating a ground zone with electromagnetic waves emitted by the radar antenna. This zone contains several reflectors belonging to one or several targets. While the airborne is moving on its flight path, the antenna emits periodically impulses which reach the whole targets located on the irradiated zone. A non-negligible part of each impulse is reflected by the target and received by the radar. The whole collected data will be used to form a high resolution image of the illuminated zone thanks to an algorithm of image reconstruction. The classical imaging methods assume that the reflectors are isotropic (they behaves the same way regardless the aspect under wich they are viewed) and white (they have the same properties within the emitted bandwidth). Unfortunately, new capacities in SAR imaging (large bandwidth, large angular excursions of analysis) makes these assumptions obsolete. The purpose of the thesis work consisted in developing a time-frequency method based on the use of continuous wavelets allowing to highlight the anisotropic and coloration effects of the irradiated points. This kind of analysis is based on the concept of hyperimage which allows to associate to each pixel an energetic response which is a function of the aspect and the frequency. The algorithm allowing to implant the continuous wavelet transform is based on the Fourier transform. Hence, this algorithm is not expensive in terms of time calculation by using the Fast Fourier Transform (FFT). .
46

Debunne, Gilles. "Animation multirésolution d'objets déformables en temps-réel : application à la simulation chirurgicale". Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00006740.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'animation de scènes virtuelles en synthèse d'images est une technique maîtrisée, largement utilisée pour les effets spéciaux cinématographiques et les jeux vidéos. Elle se limite toutefois la plupart du temps à l'animation manuelle d'objets rigides. Cette thèse se propose de chercher à générer automatiquement les déformations d'un objet mou, qui plus est en temps-réel. L'application visée est la création d'un simulateur chirurgical d'opérations minimalement invasives destiné à terme à la formation des chirurgiens. Les méthodes actuelles ne permettent pas d'obtenir à la fois un réalisme visuel satisfaisant et une animation en temps-réel. Pour y parvenir nous avons utilisé les lois de l'élasticité linéaire qui garantissent le réalisme de l'animation et assurent qu'un même comportement de l'objet sera approché, quelle que soit la finesse de la discrétisation. Nous proposons alors une méthode de simulation multirésolution, qui adapte automatiquement en fonction de la simulation, pour chaque zone de l'objet, la précision des calculs pour obtenir un compromis entre une simulation grossière et très rapide ou au contraire une animation plus précise utilisant davantage de points. La partie de l'organe proche de l'outil manipulé par l'utilisateur sera ainsi animée avec une grande précision, qui diminuera dans les régions lointaines, moins importantes visuellement. Ces travaux ont abouti à la réalisation d'un prototype de simulateur chirurgical offrant une animation en temps-réel grâce à l'utilisation de la multirésolution. Le réalisme est accru par l'utilisation d'un dispositif à retour d'effort simulant la résistance de l'organe à la déformation, calculée grâce au modèle physique interne.
47

Pouget, Maël. "Synthèse incrémentale de la parole à partir du texte". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT008/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse porte sur un nouveau paradigme pour la synthèse de la parole à partir du texte, à savoir la synthèse incrémentale. L'objectif est de délivrer la parole de synthèse au fur et à mesure de la saisie du texte par l'utilisateur, contrairement aux systèmes classiques pour lesquels la synthèse est déclenchée après la saisie d'une ou plusieurs phrases. L'application principale visée est l'aide aux personnes présentant un trouble sévère de la communication orale, et communiquant principalement à l'aide d'un synthétiseur vocal. Un synthétiseur vocal incrémental permettrait de fluidifier une conversation en limitant le temps que passe l'interlocuteur à attendre la fin de la saisie de la phrase à synthétiser. Un des défi que pose ce paradigme est la synthèse d'un mot ou d'un groupe de mot avec une qualité segmentale et prosodique acceptable alors que la phrase qui le contient n'est que partiellement connue au moment de la synthèse. Pour ce faire, nous proposons différentes adaptations des deux principaux modules d'un système de synthèse de parole à partir du texte : le module de traitement automatique de la langue naturelle (TAL) et le module de synthèse sonore. Pour le TAL en synthèse incrémentale, nous nous sommes intéressé à l'analyse morpho-syntaxique, qui est une étape décisive pour la phonétisation et la détermination de la prosodie cible. Nous décrivons un algorithme d'analyse morpho-syntaxique dit "à latence adaptative". Ce dernier estime en ligne si une classe lexicale (estimée à l'aide d'un analyseur morpho-syntaxique standard basé sur l'approche n-gram), est susceptible de changer après l'ajout par l'utilisateur d'un ou plusieurs mots. Si la classe est jugée instable, alors la synthèse sonore est retardée, dans le cas contraire, elle peut s'effectuer sans risque a priori de dégrader de la qualité segmentale et suprasegmentale. Cet algorithme exploite une ensemble d'arbre de décisions binaires dont les paramètres sont estimés par apprentissage automatique sur un large corpus de texte. Cette méthode nous permet de réaliser un étiquetage morpho-syntaxique en contexte incrémental avec une précision de 92,5% pour une latence moyenne de 1,4 mots. Pour la synthèse sonore, nous nous plaçons dans le cadre de la synthèse paramétrique statistique, basée sur les modèles de Markov cachés (Hidden Markov Models, HMM). Nous proposons une méthode de construction de la voix de synthèse (estimation des paramètres de modèles HMM) prenant en compte une éventuelle incertitude sur la valeur de certains descripteurs contextuels qui ne peuvent pas être calculés en synthèse incrémentale (c'est-à-dire ceux qui portent sur les mots qui ne sont pas encore saisis au moment de la synthèse).Nous comparons la méthode proposée à deux autres stratégies décrites dans la littérature. Les résultats des évaluations objectives et perceptives montrent l’intérêt de la méthode proposée pour la langue française. Enfin, nous décrivons un prototype complet qui combine les deux méthodes proposées pour le TAL et la synthèse par HMM incrémentale. Une évaluation perceptive de la pertinence et de la qualité des groupes de mots synthétisés au fur et à mesure de la saisie montre que notre système réalise un compromis acceptable entre réactivité (minimisation du temps entre la saisie d'un mot et sa synthèse) et qualité (segmentale et prosodique) de la parole de synthèse
In this thesis, we investigate a new paradigm for text-to-speech synthesis (TTS) allowing to deliver synthetic speech while the text is being inputted : incremental text-to-speech synthesis. Contrary to conventional TTS systems, that trigger the synthesis after a whole sentence has been typed down, incremental TTS devices deliver speech in a ``piece-meal'' fashion (i.e. word after word) while aiming at preserving the speech quality achievable by conventional TTS systems.By reducing the waiting time between two speech outputs while maintaining a good speech quality, such a system should improve the quality of the interaction for speech-impaired people using TTS devices to express themselves.The main challenge brought by incremental TTS is the synthesis of a word, or of a group of words, with the same segmental and supra-segmental quality as conventional TTS, but without knowing the end of the sentence to be synthesized. In this thesis, we propose to adapt the two main modules (natural language processing and speech synthesis) of a TTS system to the incremental paradigm.For the natural language processing module, we focused on part-of-speech tagging, which is a key step for phonetization and prosody generation. We propose an ``adaptive latency algorithm'' for part-of-speech tagging, that estimates if the inferred part-of-speech for a given word (based on the n-gram approach) is likely to change when adding one or several words. If the Part-of-speech is considered as likely to change, the synthesis of the word is delayed. In the other case, the word may be synthesized without risking to alter the segmental or supra-segmental quality of the synthetic speech. The proposed method is based on a set of binary decision trees trained over a large corpus of text. We achieve 92.5% precision for the incremental part-of-speech tagging task and a mean delay of 1.4 words.For the speech synthesis module, in the context of HMM-based speech synthesis, we propose a training method that takes into account the uncertainty about contextual features that cannot be computed at synthesis time (namely, contextual features related to the following words). We compare the proposed method to other strategies (baselines) described in the literature. Objective and subjective evaluation show that the proposed method outperforms the baselines for French.Finally, we describe a prototype developed during this thesis implementing the proposed solution for incremental part-of-speech tagging and speech synthesis. A perceptive evaluation of the word grouping derived from the proposed adaptive latency algorithm as well as the segmental quality of the synthetic speech tends to show that our system reaches a good trade-off between reactivity (minimizing the waiting time between the input and the synthesis of a word) and speech quality (both at segmental and supra-segmental levels)
48

Gubanova, Elena Leonidovna. "Étude expérimentale et modélisation de l'oxydation partielle du méthane en gaz de synthèse sur réacteur catalytique monolithique à temps courts". Lyon 1, 2008. http://tel.archives-ouvertes.fr/docs/00/52/74/46/PDF/GUBANOVA-final.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude a pour objectif principal de développer un réacteur structuré de type monolithe pour atteindre des performances élevées en oxydation partielle du méthane en gaz de synthèse. Les catalyseurs étudiés sont à base de Pt et Ni comme métaux noble et non noble, respectivement, supportés sur un oxyde mixte CeO2-ZrO2 et déposés sur les parois d'un monolithe en corundum. Le rôle de différents dopants introduits dans le support oxyde mixte du catalyseur vis à vis du stockage-déstockage d'oxygène a été élucidé et l'influence des conditions opératoires et des paramètres du procédé sur les performances d'un élément mono canal du monolithe a été précisée. Une étude mécanistique a révélé d'importants facteurs comme la nature et la dynamique des espèces de surface et de coeur et montré que l'interaction entre le Pt et l'oxyde mixte CeO2-ZrO2 déterminait l'activité du catalyseur. Des expériences cinétiques ont démontré que le Pt est requis pour les réactions de reformage mais que le support CeO2-ZrO2 dopé pouvait présenter une activité non négligeable pour l'activation oxydante du méthane. Une modélisation mathématique des données expérimentales a été réalisée avec un modèle prenant en compte essentiellement l'activité du Pt. Cette dernière a été trouvée très supérieure à celle du support. Cependant des expériences en réacteur TAP ont montré qu'une oxydation du catalyseur permettait une vitesse d'oxydation du méthane supérieure
The main objective of the thesis was to develop a monolith-type structured reactor for the efficient catalytic partial oxidation of methane to synthesis gas. The investigated catalysts comprised Pt as noble or Ni as base metal supported on CeO2-ZrO2 mixed oxides introduced as wall coatings of corundum monolith substrates. It was possible to elucidate the effect of different dopants modifying the mixed oxide on oxygen storage properties and to establish the impact of process parameters on the CPOM performance of single monolith channels at short contact times. A mechanistic study revealed important factors, like surface and bulk adspecies nature and dynamics, the interaction between Pt and CeO2-ZrO2 playing a key role for catalyst activity. Kinetic experiments demonstrated that Pt is required for reforming reactions and showed a significant reactivity of the doped CeO2-ZrO2 support in the oxidative methane activation. A mathematical description of the experimental data was achieved with a model accounting mainly for the activity of Pt. The later was found significantly higher than that of the support although TAP investigations indicated that a more oxidized catalyst shows higher methane activation rates
49

Preux, Alain. "Antialiassage en synthèse d'images, état de l'art et proposition de méthodes temps réel pour les bords de polygones". Lille 1, 1996. http://www.theses.fr/1996LIL10033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'aliassage est un phénomène qui se manifeste en synthèse d'images sous diverses formes. La théorie du signal nous permet de comprendre et d'analyser les processus mis en jeu. Nous avons étudié les différents aspects de l'aliassage en synthèse d'images ainsi que les méthodes qui permettent de l'atténuer. Nous nous sommes particulièrement intéresses aux méthodes d'échantillonnage surfacique capables de résoudre les problèmes de crénelage sur les bords de polygones. Dans ce cadre, nous avons fait quelques propositions visant à améliorer certaines méthodes existantes. Par ailleurs, nous avons adapté notre technique à l'antialiassage d'éclairement pour les algorithmes de radiosité. Les machines spécialisées pour l'affichage rapide utilisent toutes, à ce jour, le pipeline de rendu gouraud/z-buffer. L'antialiassage est toujours effectue par sur-échantillonnage, ce qui ralentit les performances de ces machines. Nous avons développé, en vue de la réalisation matérielle d'une carte spécialisée, un algorithme d'antialiassage de bords de polygones combinant la qualité de l'échantillonnage surfacique et la simplicité du z-buffer. Notre méthode nécessite une augmentation de la mémoire par un facteur 2 ou 3 selon les versions et produit des résultats comparables a un sur-échantillonnage 16 passes.
50

Landès, Matthieu. "Utilisation des corrélations du bruit en sismologie : tomographie passive et étude de distributions de sources de bruit". Paris, Institut de physique du globe, 2009. http://www.theses.fr/2009GLOB0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Des études récentes ont montré qu’il était possible d’extraire la fonction de Green entre deux récepteurs par corrélation d’un champ d’ondes sismiques aléatoires enregistrées entre ces deux points. Appliquée à la sismologie, la faisabilité de cette approche est illustrée par l’étude des corrélations du bruit sismique ambiant sur de longues périodes et permet la reconstruction de la partie "ondes de surface" des fonctions de Green. Ainsi, la possibilité de mesurer des vitesses à partir des corrélations de bruit sur différents trajets d’un réseau sismique ouvre la voie à une imagerie passive des structures de la Terre. Cependant, ce résultat est intimement lié aux propriétés du bruit sismique qui diffèrent suivant les régions d’étude. Le travail de recherche que je présente se compose de quatre études séparées. La première étude a permis de tester et d’appliquer la technique de tomographie passive dans un environnement océanique afin d’étudier la structure de la croûte inférieure et du manteau supérieur sous l’Islande. La deuxième étude se base sur l’observation de certaines corrélations de bruit d’un signal qui ne fait pas partie de la fonction de Green mais qui résulte d’ondes de volume télésismiques contenues dans le bruit, ondes générées par des tempêtes océaniques. Grâce à une analyse réseau, on peut ainsi étudier la distribution des sources de microséismes dans l’océan profond. La troisième étude analyse la faisabilité d’utiliser les corrélations de bruit sismique enregistré en fond de mer à des fréquences supérieures à 1 Hz pour avoir accès à la distribution de vitesse des premiers 30 m. Enfin, en marge de cette problématique de bruit sismique, je présenterai une dernière étude originale qui montre l’utilisation de courbes de dispersion et de diagramme Temps-Fréquence pour estimer la vitesse de rupture du séisme de Koxokili de novembre 2001
Recent studies show the possibility to extract the Green’s function between two locations by correlating a random wavefield recorded by receivers located at these points. Applied to seismology, the feasibility of this approach is illustrated by the study of ambient seismic noise correlations during long periods that results in reconstructing the “surface wave” part of Green’s functions. This provides us with a new way of passive imaging of the Earth structure by measuring and inverting velocities of seismic waves propagating between pairs of stations of a seismic network. However, applicability of this approach result is closely related to the properties of seismic noise that may be different in different regions. The research that I present consists of four separate studies. The first study aims to apply the technique of passive tomography in an oceanic environment to infer the structure of the lower crust and upper mantle below Iceland. The second study is based on observations of noise correlations containing signals that are not parts of the Green’s function but results from ballistic teleseismic body waves generated by distant oceanic storms. By applying a network analysis to these signals, we can locate their sources distribution and to determine unambiguously that they are preferentially generated in deep oceans. The third study examines the feasibility of using the seismic noise correlation at the seafloor to infer to the shear velocity distribution of the top 30 m. Finally, in addition to this seismic noise problem, I will present a final original study that shows the use of dispersion curves and Time-Frequency diagram to estimate the speed of earthquake rupture Koxokili of November 2001

Vai alla bibliografia