Rozprawy doktorskie na temat „Qualité graphique”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Qualité graphique.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 25 najlepszych rozpraw doktorskich naukowych na temat „Qualité graphique”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Bothorel, Gwenael. "Algorithmes automatiques pour la fouille visuelle de données et la visualisation de règles d’association : application aux données aéronautiques". Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/13783/1/bothorel.pdf.

Pełny tekst źródła
Streszczenie:
Depuis quelques années, nous assistons à une véritable explosion de la production de données dans de nombreux domaines, comme les réseaux sociaux ou le commerce en ligne. Ce phénomène récent est renforcé par la généralisation des périphériques connectés, dont l'utilisation est devenue aujourd'hui quasi-permanente. Le domaine aéronautique n'échappe pas à cette tendance. En effet, le besoin croissant de données, dicté par l'évolution des systèmes de gestion du trafic aérien et par les événements, donne lieu à une prise de conscience sur leur importance et sur une nouvelle manière de les appréhender, qu'il s'agisse de stockage, de mise à disposition et de valorisation. Les capacités d'hébergement ont été adaptées, et ne constituent pas une difficulté majeure. Celle-ci réside plutôt dans le traitement de l'information et dans l'extraction de connaissances. Dans le cadre du Visual Analytics, discipline émergente née des conséquences des attentats de 2001, cette extraction combine des approches algorithmiques et visuelles, afin de bénéficier simultanément de la flexibilité, de la créativité et de la connaissance humaine, et des capacités de calculs des systèmes informatiques. Ce travail de thèse a porté sur la réalisation de cette combinaison, en laissant à l'homme une position centrale et décisionnelle. D'une part, l'exploration visuelle des données, par l'utilisateur, pilote la génération des règles d'association, qui établissent des relations entre elles. D'autre part, ces règles sont exploitées en configurant automatiquement la visualisation des données concernées par celles-ci, afin de les mettre en valeur. Pour cela, ce processus bidirectionnel entre les données et les règles a été formalisé, puis illustré, à l'aide d'enregistrements de trafic aérien récent, sur la plate-forme Videam que nous avons développée. Celle-ci intègre, dans un environnement modulaire et évolutif, plusieurs briques IHM et algorithmiques, permettant l'exploration interactive des données et des règles d'association, tout en laissant à l'utilisateur la maîtrise globale du processus, notamment en paramétrant et en pilotant les algorithmes.
Style APA, Harvard, Vancouver, ISO itp.
2

Poulin-Latulippe, David. "L'influence de la qualité de la relation mère-enfant sur le moment d'apparition de la capacité de figuration graphique chez le garçon de trois ans et demi". Thèse, Université du Québec à Trois-Rivières, 2003. http://depot-e.uqtr.ca/4075/1/000102888.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Girod, Xavier. "Conception par objets : mecano : une Méthode et un Environnement de Construction d'ApplicatioNs par Objets". Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339536.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Ramousse, Florian. "Contributions à l’utilisation de la réalité virtuelle pour la thérapie des troubles du comportement alimentaire". Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. https://bibli.ec-lyon.fr/exl-doc/TH_2024ECDL0023.pdf.

Pełny tekst źródła
Streszczenie:
L’utilisation des technologies immersives destinées à des fins thérapeutiques est pratiquée depuis plusieurs années. Si ces techniques furent d’abord appliquées aux troubles phobiques, elles se sont peu à peu étendues vers d’autres pathologies telles que la schizophrénie et les troubles alimentaires. Les travaux existants concernant l’utilisation de la réalité virtuelle (RV ) pour le traitement de troubles alimentaires se concentrent sur deux problématiques : (1) la correction de la distorsion de la représentation que le patient se fait de lui-même et pour laquelle la RV l’aide à corriger cette représentation erronée via l’incarnation ou la visualisation d’un avatar ; (2) l’utilisation de l’environnement avec des éléments déclencheurs de la pathologie (ex., nourriture) dans le but de mieux caractériser les symptômes et de réaliser une thérapie d’exposition aux signaux. Le premier objectif de la thèse est de proposer et d’évaluer un environnement immersif induisant les condition de craving alimentaire (besoin irrépressible de consommation d’un produit associé à une recherche compulsive), le tout chez les personnes atteintes de bulimia nervosa ou d’hyperphagie boulimique, comparativement à des personnes saines appariées. Le développement de cet environnement repose sur un travail de design collaboratif, dans lequel l’utilisation d’un environnement immersif avec un scénario scripté et semi-guidé, avec des stimuli multi-modaux, constitue un élément novateur. La caractérisation de l’environnement s’effectue sur l’actuelle mesure de référence du craving alimentaire en RV soit une auto-évaluation par échelle verbale simple dont nous étudions les variations durant l’exploration du scénario avant et après chaque pièce virtuelle d’exposition, ainsi que son association à l’anxiété induite par l’exploration aux mêmes moments. De plus, certains paramètres physiologiques ayant pu être associés au craving des troubles addictifs sont mesurés aux différents moments d’évaluation (variabilité de fré- quence cardiaque (variations des intervalles entre chaque battement de coeur) et activité électrodermale (activité bioélectrique cutanée physiologique)). Enfin, nous utilisons également des méthodes de phénotypage, basées sur des questionnaires d’auto-évaluation, qui visent à mettre en évidence des dimensions comportementales et émotionnelles qui peuvent être des facteurs propices au déclenchement des crises. Par ailleurs, dans le cadre des études sur l’envie de manger, la qualité visuelle apparaît comme un paramètre majeur qu’il faut contrôler afin de proposer des environnements iv adaptés aux contraintes d’expérience utilisateur ainsi qu’aux contraintes techniques. Le second objectif de la thèse est d’étudier comment la qualité visuelle des stimuli alimentaires influence le désir de manger dans un environnement en réalité virtuelle. Cette évaluation s’effectue sur des personnes non pathologiques, avec des visuels alimentaires de qualité graphique variable et classés au préalable selon une métrique entraînée sur un apprentissage profond capable de délivrer un score moyen de qualité graphique
The use of immersive technologies for therapeutic purposes has been practiced for several years. While these techniques were initially applied to phobic disorders, they have gradually expanded to other disorders such as anxiety, schizophrenia and eating disorders. Existing research on the use of virtual reality (VR) for the treatment of eating disorders focuses on two issues : (1) correcting the distortion of the patient’s self-representation, where VR helps correct this erroneous representation through embodiment or visualization of an avatar (2) using the environment with triggering elements of the pathology (e.g., food) to better characterize symptoms and conduct exposure therapy to these cues. The first objective of the thesis is to propose and evaluate an immersive environment inducing conditions of food craving (irresistible urge to consume a product associated with compulsive seeking) in individuals with bulimia nervosa or binge-eating disorder, compared to matched healthy subjects. The development of this environment is based on collaborative design work, in which the use of multi-modal stimuli is an innovative element. The characterization of the environment is based on the current reference measure of food craving in VR, which is a self-assessment using a simple verbal scale. We study variations during the exploration of the scenario before and after each virtual exposure, as well as its association with anxiety induced by the exploration at the same moments. Additionally, certain physiological parameters previously associated with cravings in addictive disorders are measured at different evaluation points (heart rate variability and electrodermal activity). Finally, we also use phenotyping methods based on self-assessment questionnaires to highlight behavioral and emotional dimensions that may contribute to triggering episodes. Moreover, in the context of studies on the desire to eat, visual quality emerges as a major parameter that needs to be controlled to offer environments suitable for user experience constraints and technical limitations. The second objective of the thesis is to study how the visual quality of food stimuli influences the desire to eat in a virtual reality environment. This evaluation is performed on non-pathological individuals, with food visuals of varying graphic quality, pre-classified according to a deep learning-trained metric capable of delivering an average graphic quality score
Style APA, Harvard, Vancouver, ISO itp.
5

Issa, Subhi. "Linked data quality : completeness and conciseness". Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1274.

Pełny tekst źródła
Streszczenie:
La large diffusion des technologies du Web Sémantique telles que le Resource Description Framework (RDF) permet aux individus de construire leurs bases de données sur le Web, d'écrire des vocabulaires et de définir des règles pour organiser et expliquer les relations entre les données selon les principes des données liées. En conséquence, une grande quantité de données structurées et interconnectées est générée quotidiennement. Un examen attentif de la qualité de ces données pourrait s'avérer très critique, surtout si d'importantes recherches et décisions professionnelles en dépendent. La qualité des données liées est un aspect important pour indiquer leur aptitude à être utilisées dans des applications. Plusieurs dimensions permettant d'évaluer la qualité des données liées sont identifiées, telles que la précision, la complétude, la provenance et la concision. Cette thèse se concentre sur l'évaluation de la complétude et l'amélioration de la concision des données liées. En particulier, nous avons d'abord proposé une approche de calcul de complétude fondée sur un schéma généré. En effet, comme un schéma de référence est nécessaire pour évaluer la complétude, nous avons proposé une approche fondée sur la fouille de données pour obtenir un schéma approprié (c.-à-d. un ensemble de propriétés) à partir des données. Cette approche permet de distinguer les propriétés essentielles des propriétés marginales pour générer, pour un ensemble de données, un schéma conceptuel qui répond aux attentes de l'utilisateur quant aux contraintes de complétude des données. Nous avons implémenté un prototype appelé "LOD-CM" pour illustrer le processus de dérivation d'un schéma conceptuel d'un ensemble de données fondé sur les besoins de l'utilisateur. Nous avons également proposé une approche pour découvrir des prédicats équivalents afin d'améliorer la concision des données liées. Cette approche s'appuie, en plus d'une analyse statistique, sur une analyse sémantique approfondie des données et sur des algorithmes d'apprentissage. Nous soutenons que l'étude de la signification des prédicats peut aider à améliorer l'exactitude des résultats. Enfin, un ensemble d'expériences a été mené sur des ensembles de données réelles afin d'évaluer les approches que nous proposons
The wide spread of Semantic Web technologies such as the Resource Description Framework (RDF) enables individuals to build their databases on the Web, to write vocabularies, and define rules to arrange and explain the relationships between data according to the Linked Data principles. As a consequence, a large amount of structured and interlinked data is being generated daily. A close examination of the quality of this data could be very critical, especially, if important research and professional decisions depend on it. The quality of Linked Data is an important aspect to indicate their fitness for use in applications. Several dimensions to assess the quality of Linked Data are identified such as accuracy, completeness, provenance, and conciseness. This thesis focuses on assessing completeness and enhancing conciseness of Linked Data. In particular, we first proposed a completeness calculation approach based on a generated schema. Indeed, as a reference schema is required to assess completeness, we proposed a mining-based approach to derive a suitable schema (i.e., a set of properties) from data. This approach distinguishes between essential properties and marginal ones to generate, for a given dataset, a conceptual schema that meets the user's expectations regarding data completeness constraints. We implemented a prototype called “LOD-CM” to illustrate the process of deriving a conceptual schema of a dataset based on the user's requirements. We further proposed an approach to discover equivalent predicates to improve the conciseness of Linked Data. This approach is based, in addition to a statistical analysis, on a deep semantic analysis of data and on learning algorithms. We argue that studying the meaning of predicates can help to improve the accuracy of results. Finally, a set of experiments was conducted on real-world datasets to evaluate our proposed approaches
Style APA, Harvard, Vancouver, ISO itp.
6

Dufay, Arthur. "High quality adaptive rendering of complex photometry virtual environments". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0692/document.

Pełny tekst źródła
Streszczenie:
La génération d'images de synthèse pour la production cinématographique n'a cessé d'évoluer durant ces dernières décennies. Pour le non-expert, il semble que les effets spéciaux aient atteint un niveau de réalisme ne pouvant être dépassé. Cependant, les logiciels mis à la disposition des artistes ont encore du progrès à accomplir. En effet, encore trop de temps est passé à attendre le résultat de longs calculs, notamment lors de la prévisualisation d'effets spéciaux. La lenteur ou la mauvaise qualité des logiciels de prévisualisation pose un réel problème aux artistes. Cependant, l'évolution des cartes graphiques ces dernières années laisse espérer une potentielle amélioration des performances de ces outils, notamment par la mise en place d'algorithmes hybrides rasterisation/ lancer de rayons, tirant profit de la puissance de calcul de ces processeurs, et ce, grâce à leur architecture massivement parallèle. Cette thèse explore les différentes briques logicielles nécessaires à la mise en place d'un pipeline de rendu complexe sur carte graphique, permettant une meilleure prévisualisation des effets spéciaux. Différentes contributions ont été apportées à l'entreprise durant cette thèse. Tout d'abord, un pipeline de rendu hybride a été développé (cf. Chapitre 2). Par la suite, différentes méthodes d'implémentation de l'algorithme de Path Tracing ont été testées (cf. Chapitre 3), de façon à accroître les performances du pipeline de rendu sur GPU. Une structure d'accélération spatiale a été implémentée (cf. Chapitre 4), et une amélioration de l'algorithme de traversée de cette structure sur GPU a été proposée (cf. Section 4.3.2). Ensuite, une nouvelle méthode de décorrélation d'échantillons, dans le cadre de la génération de nombres aléatoires a été proposée (cf. Section 5.4) et a donné lieu à une publication [Dufay et al., 2016]. Pour finir, nous avons tenté de combiner l'algorithme de Path Tracing et les solutions Many Lights, toujours dans le but d'améliorer la prévisualisation de l'éclairage global. Cette thèse a aussi donné lieu à la soumission de trois mémoires d'invention et a permis le développement de deux outils logiciels présentés en Annexe A
Image synthesis for movie production never stopped evolving over the last decades. It seems it has reached a level of realism that cannot be outperformed. However, the software tools available for visual effects (VFX) artists still need to progress. Indeed, too much time is still wasted waiting for results of long computations, especially when previewing VFX. The delays or poor quality of previsualization software poses a real problem for artists. However, the evolution of graphics processing units (GPUs) in recent years suggests a potential improvement of these tools. In particular, by implementing hybrid rasterization/ray tracing algorithms, taking advantage of the computing power of these processors and their massively parallel architecture. This thesis explores the different software bricks needed to set up a complex rendering pipeline on the GPU, that enables a better previsualization of VFX. Several contributions have been brought during this thesis. First, a hybrid rendering pipeline was developed (cf. Chapter 2). Subsequently, various implementation schemes of the Path Tracing algorithm have been tested (cf. Chapter 3), in order to increase the performance of the rendering pipeline on the GPU. A spatial acceleration structure has been implemented (cf. Chapter 4), and an improvement of the traversal algorithm of this structure on GPU has been proposed (cf. Section 4.3.2). Then, a new sample decorrelation method, in the context of random number generation was proposed (cf. Section 5.4) and resulted in a publication [Dufay et al., 2016]. Finally, we combined the Path Tracing algorithm with the Many Lights solution, always with the aim of improving the preview of global illumination. This thesis also led to the submission of three patents and allowed the development of two software tools presented in Appendix A
Style APA, Harvard, Vancouver, ISO itp.
7

Tsingos, Nicolas. "Simulation de champs sonores de haute qualité pour des applications graphiques interactives". Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00528829.

Pełny tekst źródła
Streszczenie:
Ce travail porte sur la simulation de champs sonores de haute qualité pour des applications graphiques interactives. Dans ce cadre, nous nous sommes intéressé à trois problèmes : le calcul interactif des effets de l'occultation des ondes sonores par des obstacles, l'intégration du son dans un système d'animation et de réalité virtuelle et la simulation adaptative des réflections du son dans des environnements réverbérants. Nous présentons une méthode originale permettant d'approcher les effets des obstacles sur la propagation des ondes sonores. Cette méthode qualitative est fondée sur le calcul de l'obstruction des premiers ellipsoïdes de Fresnel. Pour cela nous utilisons le rendu câblé des cartes graphiques spécialisées pour effectuer un calcul interactif entre une source et un récepteur ponctuels dans des environnements généraux. Une extension plus quantitative, basée sur la théorie de Fresnel-Kirchhoff est également décrite. Nous décrivons également un système interactif de simulation acoustique. Il permet le rendu synchronisé du son et de l'image dans le cadre d'applications d'animation de synthèse et de réalité virtuelle. Nous y avons intégré notre approche de traitement des occultations sonores. Nous présentons comment d'autres effets, comme les réflections spéculaires du son ou l'effet Doppler sont également pris en compte. Enfin, nous introduisons une technique originale de simulation adaptative fondée sur un formalisme proche de la radiosité hiérarchique utilisée en synthèse d'images. Elle permet de prendre en compte efficacement des réflections globales spéculaires et diffuses dans le cadre d'échanges énergétiques dépendants du temps. La solution obtenue est indépendante du point d'écoute et ouvre la porte à des applications de parcours interactifs de l'environnement virtuel. En outre, la complexité du processus peut être contrôlée, permettant des applications plus quantitatives, comme la prévision des qualités acoustiques de lieux d'écoute. Ces trois contributions peuvent permettre de réaliser un système de simulation complet d'une scène sonore virtuelle pouvant être utilisé dans une variété d'applications. Celles-ci ne se limitent toutefois pas à l'acoustique, mais peuvent être étendues à la simulation de propagation d'ondes radioélectriques pour la téléphonie mobile ou les réseaux sans fils.
Style APA, Harvard, Vancouver, ISO itp.
8

Guo, Jinjiang. "Contributions to objective and subjective visual quality assessment of 3d models". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI099.

Pełny tekst źródła
Streszczenie:
Dans le domaine de l’informatique graphique, les données tridimensionnelles, généralement représentées par des maillages triangulaires, sont employées dans une grande variété d’applications (par exemple, le lissage, la compression, le remaillage, la simplification, le rendu, etc.). Cependant, ces procédés introduisent inévitablement des artefacts qui altèrent la qualité visuelle des données 3D rendues. Ainsi, afin de guider perceptuellement les algorithmes de traitement, il y a un besoin croissant d'évaluations subjectives et objectives de la qualité visuelle à la fois performantes et adaptées, pour évaluer et prédire les artefacts visuels. Dans cette thèse, nous présentons d'abord une étude exhaustive sur les différentes sources d'artefacts associés aux données numériques graphiques, ainsi que l’évaluation objective et subjective de la qualité visuelle des artefacts. Ensuite, nous introduisons une nouvelle étude sur la qualité subjective conçue sur la base de l’évaluations de la visibilité locale des artefacts géométriques, dans laquelle il a été demandé à des observateurs de marquer les zones de maillages 3D qui contiennent des distorsions visibles. Les cartes de distorsion visuelle collectées sont utilisées pour illustrer plusieurs fonctionnalités perceptuelles du système visuel humain (HVS), et servent de vérité-terrain pour évaluer les performances des attributs et des mesures géométriques bien connus pour prédire la visibilité locale des distorsions. Notre deuxième étude vise à évaluer la qualité visuelle de modèles 3D texturés, subjectivement et objectivement. Pour atteindre ces objectifs, nous avons introduit 136 modèles traités avec à la fois des distorsions géométriques et de texture, mené une expérience subjective de comparaison par paires, et invité 101 sujets pour évaluer les qualités visuelles des modèles à travers deux protocoles de rendu. Motivés par les opinions subjectives collectées, nous proposons deux mesures de qualité visuelle objective pour les maillages texturés, en se fondant sur les combinaisons optimales des mesures de qualité issues de la géométrie et de la texture. Ces mesures de perception proposées surpassent leurs homologues en termes de corrélation avec le jugement humain
In computer graphics realm, three-dimensional graphical data, generally represented by triangular meshes, have become commonplace, and are deployed in a variety of application processes (e.g., smoothing, compression, remeshing, simplification, rendering, etc.). However, these processes inevitably introduce artifacts, altering the visual quality of the rendered 3D data. Thus, in order to perceptually drive the processing algorithms, there is an increasing need for efficient and effective subjective and objective visual quality assessments to evaluate and predict the visual artifacts. In this thesis, we first present a comprehensive survey on different sources of artifacts in digital graphics, and current objective and subjective visual quality assessments of the artifacts. Then, we introduce a newly designed subjective quality study based on evaluations of the local visibility of geometric artifacts, in which observers were asked to mark areas of 3D meshes that contain noticeable distortions. The collected perceived distortion maps are used to illustrate several perceptual functionalities of the human visual system (HVS), and serve as ground-truth to evaluate the performances of well-known geometric attributes and metrics for predicting the local visibility of distortions. Our second study aims to evaluate the visual quality of texture mapped 3D model subjectively and objectively. To achieve these goals, we introduced 136 processed models with both geometric and texture distortions, conducted a paired-comparison subjective experiment, and invited 101 subjects to evaluate the visual qualities of the models under two rendering protocols. Driven by the collected subjective opinions, we propose two objective visual quality metrics for textured meshes, relying on the optimal combinations of geometry and texture quality measures. These proposed perceptual metrics outperform their counterparts in term of the correlation with the human judgment
Style APA, Harvard, Vancouver, ISO itp.
9

GOMES, JUNIOR ALCIDES. "Determinacao de selenio em agua subterranea utilizando a espectrometria de absorcao atomica com atomizacao eletrotermica em forno de grafita (GFAAS) e geracao de hidretos (HGAAS)". reponame:Repositório Institucional do IPEN, 2008. http://repositorio.ipen.br:8080/xmlui/handle/123456789/9378.

Pełny tekst źródła
Streszczenie:
Made available in DSpace on 2014-10-09T12:26:22Z (GMT). No. of bitstreams: 0
Made available in DSpace on 2014-10-09T14:10:00Z (GMT). No. of bitstreams: 0
Dissertacao (Mestrado)
IPEN/D
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
Style APA, Harvard, Vancouver, ISO itp.
10

Gourmelin, Yves. "Optimisation de l'utilisation des systèmes de traitement des analyses biologiques". Paris 12, 1995. http://www.theses.fr/1995PA120012.

Pełny tekst źródła
Streszczenie:
Le travail presente s'inscrit dans le cadre de 20 ans de pratique de la biologie hospitaliere et d'evaluations de materiels de biochimie clinique. Ce travail a pour but de proposer et promouvoir, a travers une reflexion critique sur nos travaux et ceux de nos collegues francais et etrangers, une approche aussi efficace que possible de la qualite totale en biologie medicale. Apres avoir etudie des evaluations francaises et etrangeres et les compte-rendus qui en on ete faits, nous constatons qu'il n'existe aucune homogeneite dans ces etudes, tant pour les protocoles que pour l'interpretation des resultats. Nous demontrons que les outils statistiques classiques ne sont pas suffisamment performants et qu'il faut privilegier les representations graphiques dont nous donnons de nombreux exemples issus de nos propres travaux. Cette representation graphique doit egalement etre utilisee pour les autres donnees fournies par le laboratoire d'analyses medicales, comme les resultats d'analyses pour les patients. Les outils informatiques aujourd'hui disponibles permettent de realiser aisement des presentations claires et informatives et de se placer dans un reseau de communications. Il est propose: des protocoles evolutifs adaptes aux systemes etudies des procedures permettant une auto-evaluation des representations graphiques claires et informatives
Style APA, Harvard, Vancouver, ISO itp.
11

Nabil, mahrous yacoub Sandra. "Evaluation de la qualité de vidéos panoramiques synthétisées". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM067/document.

Pełny tekst źródła
Streszczenie:
La création des vidéos panoramiques de haute qualité pour des contenus immersifs en VR est généralement faite à l'aide d'un appareil doté de plusieurs caméras couvrant une scène cible. Malheureusement, cette configuration introduit à la fois des artefacts spatiaux et temporels dus à la différence entre les centres optiques et à la synchronisation imparfaite. Les mesures de qualité d'image traditionnelles ne peuvent pas être utilisées pour évaluer la qualité de ces vidéos, en raison de leur incapacité à capturer des distorsions géométriques. Dans cette thèse, nous proposons des méthodes pour l'évaluation objective des vidéos panoramiques basées sur le flux optique et la saillance visuelle. Nous validons cette métrique avec une étude centrée sur l'homme qui combine l'annotation d'erreurs percues et l'eye-tracking.Un défi important pour mesurer la qualité des vidéos panoramiques est le manque d'une vérité-terrain. Nous avons étudié l'utilisation des vidéos originales comme référence pour le panorama de sortie. Nous notons que cette approche n'est pas directement applicable, car chaque pixel du panorama final peut avoir une à $N$ sources correspondant à $N$ vidéos d'entrée avec des régions se chevauchant. Nous montrons que ce problème peut être résolu en calculant l'écart type des déplacements de tous les pixels sources à partir du déplacement du panorama en tant que mesure de la distorsion. Cela permet de comparer la différence de mouvement entre deux images données dans les vidéos originales et le mouvement dans le panorama final. Les cartes de saillance basées sur la perception humaine sont utilisées pour pondérer la carte de distorsion pour un filtrage plus précis.Cette méthode a été validée par une étude centrée sur l'homme utilisant une expérience empirique. L'expérience visait à déterminer si les humains et la métrique d'évaluation détectaient et mesuraient les mêmes erreurs, et à explorer quelles erreurs sont les plus importantes pour les humains lorsqu'ils regardent une vidéo panoramique.Les méthodes décrites ont été testées et validées et fournissent des résultats intéressants en ce qui concerne la perception humaine pour les mesures de qualité. Ils ouvrent également la voie à de nouvelles méthodes d'optimisation de l'assemblage vidéo, guidées par ces mesures de qualité
High quality panoramic videos for immersive VR content are commonly created using a rig with multiple cameras covering a target scene. Unfortunately, this setup introduces both spatial and temporal artifacts due to the difference in optical centers as well as the imperfect synchronization. Traditional image quality metrics cannot be used to assess the quality of such videos, due to their inability to capture geometric distortions. In this thesis, we propose methods for the objective assessment of panoramic videos based on optical flow and visual salience. We validate this metric with a human-centered study that combines human error annotation and eye-tracking.An important challenge in measuring quality for panoramic videos is the lack of ground truth. We have investigated the use of the original videos as a reference for the output panorama. We note that this approach is not directly applicable, because each pixel in the final panorama can have one to N sources corresponding to N input videos with overlapping regions. We show that this problem can be solved by calculating the standard deviation of displacements of all source pixels from the displacement of the panorama as a measure of distortion. This makes it possible to compare the difference in motion between two given frames in the original videos and motion in the final panorama. Salience maps based on human perception are used to weight the distortion map for more accurate filtering.This method was validated with a human-centered study using an empirical experiment. The experiment was designed to investigate whether humans and the evaluation metric detect and measure the same errors, and to explore which errors are more salient to humans when watching a panoramic video.The methods described have been tested and validated and they provide interesting findings regarding human-based perception for quality metrics. They also open the way to new methods for optimizing video stitching guided by those quality metrics
Style APA, Harvard, Vancouver, ISO itp.
12

Poulin-Latulippe, David. "L'influence de la qualité de la relation mère-enfant sur le moment d'apparition de la capacité de figuration graphique chez le garçon de trois ans et demi /". Trois-Rivières : Université du Québec à Trois-Rivières, 2003. http://www.uqtr.ca/biblio/notice/resume/17639359R.html.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
13

Tiano, Donato. "Learning models on healthcare data with quality indicators". Electronic Thesis or Diss., Lyon 1, 2022. http://www.theses.fr/2022LYO10182.

Pełny tekst źródła
Streszczenie:
Les séries temporelles sont des collections de données obtenues par des mesures dans le temps. Cette données vise à fournir des éléments de réflexion pour l'extraction d'événements et à les représenter dans une configuration compréhensible pour une utilisation ultérieure. L'ensemble du processus de découverte et d'extraction de modèles à partir de l'ensemble de données s'effectue avec plusieurs techniques d'extraction, notamment l'apprentissage automatique, les statistiques et les clusters. Ce domaine est ensuite divisé par le nombre de sources adoptées pour surveiller un phénomène. Les séries temporelles univariées lorsque la source de données est unique, et les séries temporelles multivariées lorsque la source de données est multiple. La série chronologique n'est pas une structure simple. Chaque observation de la série a une relation forte avec les autres observations. Cette interrelation est la caractéristique principale des séries temporelles, et toute opération d'extraction de séries temporelles doit y faire face. La solution adoptée pour gérer l'interrelation est liée aux opérations d'extraction. Le principal problème de ces techniques est de ne pas adopter d'opération de prétraitement sur les séries temporelles. Les séries temporelles brutes comportent de nombreux effets indésirables, tels que des points bruyants ou l'énorme espace mémoire requis pour les longues séries. Nous proposons de nouvelles techniques d'exploration de données basées sur l'adoption des caractéristiques plus représentatives des séries temporelles pour obtenir de nouveaux modèles à partir des données. L'adoption des caractéristiques a un impact profond sur la scalabilité des systèmes. En effet, l'extraction d'une caractéristique de la série temporelle permet de réduire une série entière en une seule valeur. Par conséquent, cela permet d'améliorer la gestion des séries temporelles, en réduisant la complexité des solutions en termes de temps et d'espace. FeatTS propose une méthode de clustering pour les séries temporelles univariées qui extrait les caractéristiques les plus représentatives de la série. FeatTS vise à adopter les particularités en les convertissant en réseaux de graphes pour extraire les interrelations entre les signaux. Une matrice de cooccurrence fusionne toutes les communautés détectées. L'intuition est que si deux séries temporelles sont similaires, elles appartiennent souvent à la même communauté, et la matrice de cooccurrence permet de le révéler. Dans Time2Feat, nous créons un nouveau clustering de séries temporelles multivariées. Time2Feat propose deux extractions différentes pour améliorer la qualité des caractéristiques. Le premier type d'extraction est appelé extraction de caractéristiques intra-signal et permet d'obtenir des caractéristiques à partir de chaque signal de la série temporelle multivariée. Inter-Signal Features Extraction permet d'obtenir des caractéristiques en considérant des couples de signaux appartenant à la même série temporelle multivariée. Les deux méthodes fournissent des caractéristiques interprétables, ce qui rend possible une analyse ultérieure. L'ensemble du processus de clustering des séries temporelles est plus léger, ce qui réduit le temps nécessaire pour obtenir le cluster final. Les deux solutions représentent l'état de l'art dans leur domaine. Dans AnomalyFeat, nous proposons un algorithme pour révéler des anomalies à partir de séries temporelles univariées. La caractéristique de cet algorithme est la capacité de travailler parmi des séries temporelles en ligne, c'est-à-dire que chaque valeur de la série est obtenue en streaming. Dans la continuité des solutions précédentes, nous adoptons les fonctionnalités de révélation des anomalies dans les séries. Avec AnomalyFeat, nous unifions les deux algorithmes les plus populaires pour la détection des anomalies : le clustering et le réseau neuronal récurrent. Nous cherchons à découvrir la zone de densité du nouveau point obtenu avec le clustering
Time series are collections of data obtained through measurements over time. The purpose of this data is to provide food for thought for event extraction and to represent them in an understandable pattern for later use. The whole process of discovering and extracting patterns from the dataset is carried out with several extraction techniques, including machine learning, statistics, and clustering. This domain is then divided by the number of sources adopted to monitor a phenomenon. Univariate time series when the data source is single and multivariate time series when the data source is multiple. The time series is not a simple structure. Each observation in the series has a strong relationship with the other observations. This interrelationship is the main characteristic of time series, and any time series extraction operation has to deal with it. The solution adopted to manage the interrelationship is related to the extraction operations. The main problem with these techniques is that they do not adopt any pre-processing operation on the time series. Raw time series have many undesirable effects, such as noisy points or the huge memory space required for long series. We propose new data mining techniques based on the adoption of the most representative features of time series to obtain new models from the data. The adoption of features has a profound impact on the scalability of systems. Indeed, the extraction of a feature from the time series allows for the reduction of an entire series to a single value. Therefore, it allows for improving the management of time series, reducing the complexity of solutions in terms of time and space. FeatTS proposes a clustering method for univariate time series that extracts the most representative features of the series. FeatTS aims to adopt the features by converting them into graph networks to extract interrelationships between signals. A co-occurrence matrix merges all detected communities. The intuition is that if two time series are similar, they often belong to the same community, and the co-occurrence matrix reveals this. In Time2Feat, we create a new multivariate time series clustering. Time2Feat offers two different extractions to improve the quality of the features. The first type of extraction is called Intra-Signal Features Extraction and allows to obtain of features from each signal of the multivariate time series. Inter-Signal Features Extraction is used to obtain features by considering pairs of signals belonging to the same multivariate time series. Both methods provide interpretable features, which makes further analysis possible. The whole time series clustering process is lighter, which reduces the time needed to obtain the final cluster. Both solutions represent the state of the art in their field. In AnomalyFeat, we propose an algorithm to reveal anomalies from univariate time series. The characteristic of this algorithm is the ability to work among online time series, i.e. each value of the series is obtained in streaming. In the continuity of previous solutions, we adopt the functionality of revealing anomalies in the series. With AnomalyFeat, we unify the two most popular algorithms for anomaly detection: clustering and recurrent neural network. We seek to discover the density area of the new point obtained with clustering
Style APA, Harvard, Vancouver, ISO itp.
14

Masson, Jean-Baptiste. "Sigfried 2 : modèles de mélange censurés et autres méthodes statistiques pour la contribution d'indicateurs spatialisables de la qualité de l'air intérieur dans les logements français". Compiègne, 2012. http://www.theses.fr/2012COMP2003.

Pełny tekst źródła
Streszczenie:
Cette thèse s’inscrit dans le programme CIRCE (Cancer, inégalités régionales, cantonales et environnement) qui vise à comparer des cartographies d’occurrence des cancers avec des cartographies de qualité environnementale, pour le territoire français métropolitain. Notre objectif spécifique est de construire des cartographies relatives à la qualité de l’air à l’intérieur des logements, qui soient compatibles avec cette approche. Nous avons adopté une démarche en deux étapes : premièrement construire des profils-types du point de vue de la pollution intérieure, et ensuite évaluer la fréquence locale de ces classes dans des zones prédéterminées. La première étape a nécessité le développement d’une extension de méthodes de classification bien connues, basées sur les modèles de mélange gaussiens et l’algorithme EM, au cas de données censurées (de manière déterministe). La seconde étape a fait usage de méthodes de discrimination non paramétrique, basées sur des arbres binaires de décision (CART). Malheureusement, tous les arbres construits présentent une erreur de prédiction très élevée. Même si l’on peut détecter des associations significatives bien connues entre pollution intérieure et certaines caractéristiques du logement et de ses occupants, il semble très difficile de prédire le profil-type, ou même la concentration d’une substance, à partir de ces caractéristiques. Néanmoins, la méthodologie développée a de nombreuses qualités : simplicité de mise en oeuvre, étapes distinctes permettant un contrôle régulier des résultats, flexibilité dans le choix des variables, évaluation possible de l’erreur de prédiction
This Ph. D. Thesis is part of the CIRCE program (Cancer, regional and cantonal environmental inequalities) which aims at comparing maps of cancer occurrence with maps of environmental quality on the French territory. Our specific goal is to build geographic maps of the indoor air quality inside the homes, that are compatible with this approach. We adopted a two-step method: first, build typical profiles of indoor air pollution, then assess these classes’ local frequencies in predefined zones. In the first step, we developed an extension of classical clustering methods, based on Gaussian mixture models and the EM algorithm, to the case of (deterministically) censored data. In the second step, we used non-parametric discrimination tools based on binary decisions trees (CART). Unfortunately, the resulting trees have a very high prediction error rate. Even if known significant associations can be found between indoor pollution and some characteristics of the building and its occupants, it seems very hard to predict the profile, or even a single pollutant’s concentration, from those characteristics. However, our methodology has numerous advantages: simplicity of use, distinct steps enabling a steady control of the results, flexible choice of the variables, availability of a prediction error rate
Style APA, Harvard, Vancouver, ISO itp.
15

Vu, Hoang Hiep. "Large-scale and high-quality multi-view stereo". Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00779426.

Pełny tekst źródła
Streszczenie:
Acquisition of 3D model of real objects and scenes is indispensable and useful in many practical applications, such as digital archives, game and entertainment industries, engineering, advertisement. There are 2 main methods for 3D acquisition : laser-based reconstruction (active method) and image-based reconstruction from multiple images of the scene in different points of view (passive method). While laser-based reconstruction achieves high accuracy, it is complex, expensive and difficult to set up for large-scale outdoor reconstruction. Image-based, or multi-view stereo methods are more versatile, easier, faster and cheaper. By the time we begin this thesis, most multi-view methods could handle only low resolution images under controlled environment. This thesis targets multi-view stereo both both in large scale and high accuracy issues. We significantly improve some previous methods and combine them into a remarkably effective multi-view pipeline with GPU acceleration. From high-resolution images, we produce highly complete and accurate meshes that achieve best scores in many international recognized benchmarks. Aiming even larger scale, on one hand, we develop Divide and Conquer approaches in order to reconstruct many small parts of a big scene. On the other hand, to combine separate partial results, we create a new merging method, which can merge automatically and quickly hundreds of meshes. With all these components, we are successful to reconstruct highly accurate water-tight meshes for cities and historical monuments from large collections of high-resolution images (around 1600 images of 5 M Pixel images)
Style APA, Harvard, Vancouver, ISO itp.
16

Lelli, leitao Valeria. "Testing and maintenance of graphical user interfaces". Thesis, Rennes, INSA, 2015. http://www.theses.fr/2015ISAR0022/document.

Pełny tekst źródła
Streszczenie:
La communauté du génie logiciel porte depuis ses débuts une attention spéciale à la qualité et la fiabilité des logiciels. De nombreuses techniques de test logiciel ont été développées pour caractériser et détecter des erreurs dans les logiciels. Les modèles de fautes identifient et caractérisent les erreurs pouvant affecter les différentes parties d’un logiciel. D’autre part, les critères de qualité logiciel et leurs mesures permettent d’évaluer la qualité du code logiciel et de détecter en amont du code potentiellement sujet à erreur. Les techniques d’analyses statiques et dynamiques scrutent, respectivement, le logiciel à l’arrêt et à l’exécution pour trouver des erreurs ou réaliser des mesures de qualité. Dans cette thèse, nous prônons le fait que la même attention doit être portée sur la qualité et la fiabilité des interfaces utilisateurs (ou interface homme-machine, IHM), au sens génie logiciel du terme. Cette thèse propose donc deux contributions dans le domaine du test et de la maintenance d’interfaces utilisateur : 1. Classification et mutation des erreurs d’interfaces utilisateur. 2. Qualité du code des interfaces utilisateur. Nous proposons tout d’abord un modèle de fautes d’IHM. Ce modèle a été conçu à partir des concepts standards d’IHM pour identifier et classer les fautes d’IHM ; Au travers d’une étude empirique menée sur du code Java existant, nous avons montré l’existence d’une mauvaise pratique récurrente dans le développement du contrôleur d’IHM, objet qui transforme les évènements produits par l’interface utilisateur pour les transformer en actions. Nous caractérisons cette nouvelle mauvaise pratique que nous avons appelée Blob listener, en référence à la méthode Blob. Nous proposons également une analyse statique permettant d’identifier automatiquement la présence du Blob listener dans le code d’interface Java Swing
The software engineering community takes special attention to the quality and the reliability of software systems. Software testing techniques have been developed to find errors in code. Software quality criteria and measurement techniques have also been assessed to detect error-prone code. In this thesis, we argue that the same attention has to be investigated on the quality and reliability of GUIs, from a software engineering point of view. We specifically make two contributions on this topic. First, GUIs can be affected by errors stemming from development mistakes. The first contribution of this thesis is a fault model that identifies and classifies GUI faults. We show that GUI faults are diverse and imply different testing techniques to be detected. Second, like any code artifact GUI code should be analyzed statically to detect implementation defects and design smells. As for the second contribution, we focus on design smells that can affect GUIs specifically. We identify and characterize a new type of design smell, called Blob listener. It occurs when a GUI listener, that gathers events to treat and transform as commands, can produce more than one command. We propose a systematic static code analysis procedure that searches for Blob listener that we implement in a tool called InspectorGuidget. Experiments we conducted exhibits positive results regarding the ability of InspectorGuidget in detecting Blob listeners. To counteract the use of Blob listeners, we propose good coding practices regarding the development of GUI listeners
Style APA, Harvard, Vancouver, ISO itp.
17

Courilleau, Nicolas. "Visualisation et traitements interactifs de grilles régulières 3D haute-résolution virtualisées sur GPU. Application aux données biomédicales pour la microscopie virtuelle en environnement HPC". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS013.

Pełny tekst źródła
Streszczenie:
La visualisation de données est un aspect important de la recherche scientifique dans de nombreux domaines.Elle permet d'aider à comprendre les phénomènes observés voire simulés et d'en extraire des informations à des fins notamment de validations expérimentales ou tout simplement pour de la revue de projet.Nous nous intéressons dans le cadre de cette étude doctorale à la visualisation de données volumiques en imagerie médicale et biomédicale, obtenues grâce à des appareils d'acquisition générant des champs scalaires ou vectoriels représentés sous forme de grilles régulières 3D.La taille croissante des données, due à la précision grandissante des appareils d'acquisition, impose d'adapter les algorithmes de visualisation afin de pouvoir gérer de telles volumétries.De plus, les GPUs utilisés en visualisation de données volumiques, se trouvant être particulièrement adaptés à ces problématiques, disposent d'une quantité de mémoire très limitée comparée aux données à visualiser.La question se pose alors de savoir comment dissocier les unités de calculs, permettant la visualisation, de celles de stockage.Les algorithmes se basant sur le principe dit "out-of-core" sont les solutions permettant de gérer de larges ensembles de données volumiques.Dans cette thèse, nous proposons un pipeline complet permettant de visualiser et de traiter, en temps réel sur GPU, des volumes de données dépassant très largement les capacités mémoires des CPU et GPU.L'intérêt de notre pipeline provient de son approche de gestion de données "out-of-core" permettant de virtualiser la mémoire qui se trouve être particulièrement adaptée aux données volumiques.De plus, cette approche repose sur une structure d'adressage virtuel entièrement gérée et maintenue sur GPU.Nous validons notre modèle grâce à plusieurs applications de visualisation et de traitement en temps réel.Tout d'abord, nous proposons un microscope virtuel interactif permettant la visualisation 3D auto-stéréoscopique de piles d'images haute résolution.Puis nous validons l'adaptabilité de notre structure à tous types de données grâce à un microscope virtuel multimodale.Enfin, nous démontrons les capacités multi-rôles de notre structure grâce à une application de visualisation et de traitement concourant en temps réel
Data visualisation is an essential aspect of scientific research in many fields.It helps to understand observed or even simulated phenomena and to extract information from them for purposes such as experimental validations or solely for project review.The focus given in this thesis is on the visualisation of volume data in medical and biomedical imaging.The acquisition devices used to acquire the data generate scalar or vector fields represented in the form of regular 3D grids.The increasing accuracy of the acquisition devices implies an increasing size of the volume data.Therefore, it requires to adapt the visualisation algorithms in order to be able to manage such volumes.Moreover, visualisation mostly relies on the use of GPUs because they suit well to such problematics.However, they possess a very limited amount of memory compared to the generated volume data.The question then arises as to how to dissociate the calculation units, allowing visualisation, from those of storage.Algorithms based on the so-called "out-of-core" principle are the solutions for managing large volume data sets.In this thesis, we propose a complete GPU-based pipeline allowing real-time visualisation and processing of volume data that are significantly larger than the CPU and GPU memory capacities.The pipeline interest comes from its GPU-based approach of an out-of-core addressing structure, allowing the data virtualisation, which is adequate for volume data management.We validate our approach using different real-time applications of visualisation and processing.First, we propose an interactive virtual microscope allowing 3D auto-stereoscopic visualisation of stacks of high-resolution images.Then, we verify the adaptability of our structure to all data types with a multimodal virtual microscope.Finally, we demonstrate the multi-role capabilities of our structure through a concurrent real-time visualisation and processing application
Style APA, Harvard, Vancouver, ISO itp.
18

Dragan, Rodić. "Optimizacija procesa elektroerozivne obrade savremenih inženjerskih materijala". Phd thesis, Univerzitet u Novom Sadu, Fakultet tehničkih nauka u Novom Sadu, 2019. https://www.cris.uns.ac.rs/record.jsf?recordId=110508&source=NDLTD&language=en.

Pełny tekst źródła
Streszczenie:
Predmet istraživanja ove disertacije predstavlja unapređenje, modelovanje i optimizacija procesa elektroerozivne obrade (EDM) savremenih inženjerskih materijala. Prvo su predstavljene dve inovativne metode: EDM u dielektrikumu sa pomešanim prahom i EDM sa pomoćnom elektrodom, a zatim i njihova kombinacija. Za generisanje matematičkih modela primenjene su metodologija odzivne površine i alati veštačke inteligencije. U nastavku su postavljeni optimizacioni procesi određivanja ulaznih parametara sa jednom i više funkcija cilja koji su rešeni primenom klasičnih metoda optimizacije. U završnom osvrtu sprovedena je verifikacija dobijenih modela i optimalnih ulaznih parametara elektroerozivne obrade.
The subject of the research of this dissertation is the improvement, modeling and optimization of the electrical discharge machining (EDM) of advanced engineering materials. First, two innovation methods are presented: EDM in powder mixed dielectric fluid and EDM with assisted electrode and that their combination. The method of response surface and artificial intelligence tools were applied to generate mathematical models. The optimization problems of determining the input parameters with single and multiple target functions are solved by the application of classical optimization methods. Finally, verification of the obtained models and optimal input parameters of electrical discharge machining was carried out.
Style APA, Harvard, Vancouver, ISO itp.
19

Alzahrani, Areej A. "Production of High-quality Few-layer Graphene Flakes by Intercalation and Exfoliation". Thesis, 2017. http://hdl.handle.net/10754/626356.

Pełny tekst źródła
Streszczenie:
Graphene, a two-dimensional nanomaterial, has been given much attention since it was first isolated in 2004. Driving this intensive research effort are the unique properties of this one atom thick sheet of carbon, in particular its electrical, thermal and mechanical properties. While the technological applications proposed for graphene abound, its low-cost production in large scales is still a matter of interrogation. Simple methods to obtain few-layered graphene flakes of high structural quality are being investigated with the exfoliation of graphite taking a prominent place in this arena. From the many suggested approaches, the most promising involve the use of liquid media assisted by intercalants and shear forces acting on the basal layers of graphite. In this thesis, it is discussed how a novel method was developed to produce flakes with consistent lateral dimensions that are also few-layered and retain the expected structural and chemical characteristics of graphene. Here, the source material was a commercially available graphiteintercalated compound, also known as expandable graphite. Several exfoliation-inducing tools were investigated including the use of blenders, homogenizers, and ultrasonic processors. To aid in this process, various solvents and intercalants were explored under different reactive conditions. The more efficient approach in yielding defect-free thin flakes was the use of thermally expanded graphite in boiling dimethylformamide followed by ultrasonic processing and centrifugation. In parallel, a method to fraction the flakes as a function of their lateral size was developed. Ultimately, it was possible to obtain samples of graphene flakes with a lateral dimension of a few micrometers (<5 μm) and thickness of 1-3 nm (i.e. <10 layers).
Style APA, Harvard, Vancouver, ISO itp.
20

GUO, Jinjiang. "Contributions to objective and subjective visual quality assessment of 3d models". Thesis, 2016. http://www.theses.fr/2016LYSEI099/document.

Pełny tekst źródła
Streszczenie:
Dans le domaine de l’informatique graphique, les données tridimensionnelles, généralement représentées par des maillages triangulaires, sont employées dans une grande variété d’applications (par exemple, le lissage, la compression, le remaillage, la simplification, le rendu, etc.). Cependant, ces procédés introduisent inévitablement des artefacts qui altèrent la qualité visuelle des données 3D rendues. Ainsi, afin de guider perceptuellement les algorithmes de traitement, il y a un besoin croissant d'évaluations subjectives et objectives de la qualité visuelle à la fois performantes et adaptées, pour évaluer et prédire les artefacts visuels. Dans cette thèse, nous présentons d'abord une étude exhaustive sur les différentes sources d'artefacts associés aux données numériques graphiques, ainsi que l’évaluation objective et subjective de la qualité visuelle des artefacts. Ensuite, nous introduisons une nouvelle étude sur la qualité subjective conçue sur la base de l’évaluations de la visibilité locale des artefacts géométriques, dans laquelle il a été demandé à des observateurs de marquer les zones de maillages 3D qui contiennent des distorsions visibles. Les cartes de distorsion visuelle collectées sont utilisées pour illustrer plusieurs fonctionnalités perceptuelles du système visuel humain (HVS), et servent de vérité-terrain pour évaluer les performances des attributs et des mesures géométriques bien connus pour prédire la visibilité locale des distorsions. Notre deuxième étude vise à évaluer la qualité visuelle de modèles 3D texturés, subjectivement et objectivement. Pour atteindre ces objectifs, nous avons introduit 136 modèles traités avec à la fois des distorsions géométriques et de texture, mené une expérience subjective de comparaison par paires, et invité 101 sujets pour évaluer les qualités visuelles des modèles à travers deux protocoles de rendu. Motivés par les opinions subjectives collectées, nous proposons deux mesures de qualité visuelle objective pour les maillages texturés, en se fondant sur les combinaisons optimales des mesures de qualité issues de la géométrie et de la texture. Ces mesures de perception proposées surpassent leurs homologues en termes de corrélation avec le jugement humain
In computer graphics realm, three-dimensional graphical data, generally represented by triangular meshes, have become commonplace, and are deployed in a variety of application processes (e.g., smoothing, compression, remeshing, simplification, rendering, etc.). However, these processes inevitably introduce artifacts, altering the visual quality of the rendered 3D data. Thus, in order to perceptually drive the processing algorithms, there is an increasing need for efficient and effective subjective and objective visual quality assessments to evaluate and predict the visual artifacts. In this thesis, we first present a comprehensive survey on different sources of artifacts in digital graphics, and current objective and subjective visual quality assessments of the artifacts. Then, we introduce a newly designed subjective quality study based on evaluations of the local visibility of geometric artifacts, in which observers were asked to mark areas of 3D meshes that contain noticeable distortions. The collected perceived distortion maps are used to illustrate several perceptual functionalities of the human visual system (HVS), and serve as ground-truth to evaluate the performances of well-known geometric attributes and metrics for predicting the local visibility of distortions. Our second study aims to evaluate the visual quality of texture mapped 3D model subjectively and objectively. To achieve these goals, we introduced 136 processed models with both geometric and texture distortions, conducted a paired-comparison subjective experiment, and invited 101 subjects to evaluate the visual qualities of the models under two rendering protocols. Driven by the collected subjective opinions, we propose two objective visual quality metrics for textured meshes, relying on the optimal combinations of geometry and texture quality measures. These proposed perceptual metrics outperform their counterparts in term of the correlation with the human judgment
Style APA, Harvard, Vancouver, ISO itp.
21

Fang, Ming-Dar, i 方明達. "Preparation of mesocarbon microbeads for manufacturing high quality carbon/graphite blocks and lithium ion battery anodes". Thesis, 2015. http://ndltd.ncl.edu.tw/handle/sf929w.

Pełny tekst źródła
Streszczenie:
博士
國立高雄應用科技大學
化學工程與材料工程系博碩士班
103
Mesocarbon microbeads (MCMBs), prepared from coal tar pitch, are excellent precursors for carbon materials manufacturing as a result of their liquid crystal properties. As well their excellent compressibility: the β-resin contents, residing on the surface of the MCMBs, promote fluidity and the self-sintering-ability of the clumpy mixtures. Cold isostatic pressing, carbonization and graphitization of MCMBs can be used to prepare high strength, high density isotropic graphite-thereby enabling the direct modeling of objects, while saving on expenditure, due to a reduction in the number of milling/grinding steps needed. However, the techniques needed for the self-sintering of MCMBs are not yet fully developed, due to the various β-resin components on the MCMBs being subject to variation by changes in the preparation procedures. The shapes and particle sizes of the MCMBs affects non-homogeneous sintering reactions; consequently, factors affecting the fluidity of the clumpy mixtures and the production of high-quality of graphite-parts have not been fully clarified and therefore need further investigation. In this work, using variously sized MCMBs mixed with a high β-resin content solid-resin, fixed compositions of β-resin in different graphite products were prepared to explore the effect of the sintering reaction on the resulting products and the relationship between the contacting-pattern of the raw material mixtures and the β-resin contents. The results indicate that the self-sintering reactions of MCMBs have a significant relationship with the contacting-pattern of the raw material mixtures. While MCMBs with higher β-resin contents were found to improve the bending strength of the carbon products, the maximum allowable β-resin contents is still limited as excessive β-resin contents, in addition to giving a reduced product density, will cause the sample mold to burst during sintering. To prepare higher density graphite products, the optimum β-resin content of the MCMB mixtures needed is about 5.0 wt%. Sintered mesocarbon products have high densities and good friction characteristics, but their mechanical strength is still not acceptable. Higher β-resin contents can promote fluidity of the raw materials and also affect neck-formation between the MCMBs, and the product’s, resulting in alterations to the product’s strength. Therefore we need the maximum allowable β-resin contents to be increased. In this paper, carbon black (CB) and glycidyl methacrylate (GMA) were used as a joint reaction-promoter. The sintering behavior of the β-resin was successfully modified to permit an increase in the β-resin contents to 14.4-15.2 wt%, which allowed carbonized carbon blocks with high bending strengths (142 MPa) and high densities (1.87 g cm-3) to be prepared. In this study the organic additives: bisphenol A, GMA and CB were used as promoters to modify the sintering behavior of MCMBs with additional heat treatment (2800°C) to prepare high performance graphite blocks. The disadvantages of graphite-containing inorganic additives typically manifest as decline in the desired properties of the original graphite composite’s high thermal and electrical conductivity, low coefficient of friction and excellent stability. Pure graphite blocks with high electrical conductivities (892 S cm-1), high bending strengths (62 MPa) and high densities (2.156 g cm-3) were prepared in this study. This study showed an improvement in MCMBs, with low β-resin contents, when used as anode materials in high C-rate LIBs. The results showed that the mesophase soft carbon, made from MCMBs at 1300°C, has a wider interlayer spacing compared to mesophase graphite, made from MCMBs at 2800°C, and is highly oriented in comparison with commercial hard carbon, giving it the best high C-rate charge and discharge capacity. These facts indicate that the mesophase soft carbon produced at lower temperatures can be an economical choice for high C-rate LIBs anode materials.
Style APA, Harvard, Vancouver, ISO itp.
22

Rioux, Gabrielle. "Contrôle stratigraphique et qualité minéralurgique des gîtes de graphite des lacs Guéret et Guinecourt, Terrane de Gagnon, Province de Grenville". Mémoire, 2008. http://www.archipel.uqam.ca/1460/1/M10428.pdf.

Pełny tekst źródła
Streszczenie:
La propriété de graphite des lacs Guéret et Guinécourt est localisée à environ 300 km au nord-nord-ouest de la ville de Baie-Comeau. Cette propriété se situe dans le Terrane de Gagnon, dans la région Parautochtone de la Province de Grenville. Ce secteur n'est pas étranger à l'exploration minière. En effet, dans les années 1950, plusieurs travaux furent menés, le but de ceux-ci étant de définir le potentiel en formations de fer apparentées à celles du Groupe de Knob Lake comme celles trouvées à Fermont, Labrador City, Schefferville et Gagnon. Puis au début des années 2000, après un hiatus de quarante années, de grandes quantités de graphite furent mises au jour par les compagnies Exploration Esbec, Quinto Technology Inc. et SOQUEM Inc.. On dénombre trois types de graphite dans la région, soit du graphite macrocristallin, du graphite microcristallin et du graphite en veine. La minéralisation graphiteuse est contrôlée par la Formation de Menihek du Groupe de Knob Lake et confinée dans celle-ci. Les trois types de graphite ont une distribution particulière à l'intérieur de la Formation de Menihek. Le graphite macrocristallin est associé à un schiste quartzo-feldspathique tandis que le graphite microcristallin et celui en veine sont associés à un méta-mudstone graphiteux. Le contrôle stratigraphique du graphite s'observe tant au niveau local qu'au niveau régional, soit entre les lacs Guinécourt au Québec et Wabush Lake au Labrador. L'étude de la répatition des gisements de graphite en comparaison avec les types de formations de fer de la Formation de Sokoman a permis l'élaboration d'un outil d'exploration. Cet outil est minéralurgique et met en compte la dichotomie existante entre le graphite et l'hématite. Cette dichotomie montre que la minéralisation graphiteuse est absente lorsqu'il y a présence d'hématite primaire. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Graphite, Hématite, Dichotomie, Formations de fer, Province de Grenville, Terrane de Gagnon, Groupe de Knob Lake.
Style APA, Harvard, Vancouver, ISO itp.
23

Chen, Chiu-Yuan, i 陳秋元. "A Study On The Quality In Polyurethane/Graphite Pad Applied For Chemical Mechanical Polishing Oxide Film Of Wafer". Thesis, 2011. http://ndltd.ncl.edu.tw/handle/fy5ay6.

Pełny tekst źródła
Streszczenie:
碩士
國立臺北科技大學
材料科學與工程研究所
99
In Chemical mechanical polishing (CMP) field, Polyurethane materials is widely use on polishing pad, because it have porous can save the slurry, but easy cause glazing, because the porous size is not average. In this study, we add two micron (60μm) of graphite powder in the polyurethane polymer, one is the natural graphite; the other for the hydrogenation of natural graphite after heat treatment, both in polymer addition level of 0%, 8%, 16 %, 24%, after forming polishing pad made of graphite-free pass (No porous Graphite Pad) and with the conventional diamond disk (DG329) on the wafer oxide, and discuss chemical mechanical polishing and mechanical properties. The experimental results showed that the Hydrogenated graphite pad is not removed more than highly hydrogenated graphite pad, and the wafer surface after removal of oxide layer uniformity are increasing. So we suggestion 8% addition of hydrogenated graphite oxide can achieve the best performance on the removal rate and uniformity.
Style APA, Harvard, Vancouver, ISO itp.
24

Yeh, Chi-Chen, i 葉吉鎮. "The Relation between Reaction Chamber Design of In-mold Process and the quality of Furan Resin Mold Spheroidal Graphite Cast Iron Casting". Thesis, 2004. http://ndltd.ncl.edu.tw/handle/66781533064891966167.

Pełny tekst źródła
Streszczenie:
碩士
逢甲大學
機械工程學所
92
The objective of this study is to investigate the effect of the reaction chamber design (inlet and outlet cross section area ratio, nodulant and reaction chamber height ratio, reaction chamber shape, addition of the reaction agent etc., ) of in-mold process on the quality (tensile property, metallographic microstructure) of spheroidal graphite cast iron casting by furan resin mold. The hardness distribution and the repeatability of casting quality by the statistic method are also studied in this research. The results of this study indicate that:(1) when the reaction chamber inlet and outlet cross section area ratio is 1:0.8, the casting quality of spheroidal graphite cast iron casting is the best. The nodularity is 91.5%, the nodule counts is 315 counts/mm2, the tensile strength is 50.96kg/mm2, and the elongation is 21.4%. (2) When the nodulant to the reaction chamber height ratio is 2/3, the metallographic microstructure, nodularity, nodule counts, and the tensile strength of casting are better than the other two height ratios. (3) When the shape of the reaction chamber is designed as a cubic, the nodularity and the mechanical properties are the best. Either the modulus increased (cylindric) or decreased (rectangular), the metallographic microstructure and the mechanical properties were toward to worse. (4) When the inoculant (used as the cover agent) and the nodulant are added in the same time to manufacture the spheroidal graphite cast iron casting of the furan mold, the casting results indicate that the nodularity is bad, and the casting become flake graphite cast iron. (5) For the hardness distribution on the top plane of casting, the hardest spot is at the end side far away the riser and the softest spot is at the side near of riser. The sequence of the average hardness of each cross section planes is:section I>section II>section III. From the view point of hardness distribution, the trend of hardness matches the cooling sequence of the casting. (6) Use the statistic method of the Wilcoxon sign test to analyze the repeatability of casting quality (tensile strength), the results indicate the assumption is concluded i.e. the sample values (tensile strength) to the average values is so closely. In the other words, it has high confidence level. So it can be concluded that the repeatability of casting quality is good.
Style APA, Harvard, Vancouver, ISO itp.
25

Wang, Yuan. "Theoretical and experimental study of cutting mechanics of graphite fiber reinforced preimpregnated composite (prepreg), and the effect of tool geometry on cutting quality and fibre deflection". Thesis, 1995. http://spectrum.library.concordia.ca/6192/1/MM01359.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii