Thèses sur le sujet « COSINUS »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : COSINUS.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « COSINUS ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Baskurt, Atilla. « Compression d'images numériques par la transformation cosinus discrète ». Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0036.

Texte intégral
Résumé :
Après avoir analysé les principales méthodes de compression et distingué parmi celles-ci, les méthodes par transformation, les propriétés essentielles des transformations orthogonales ont été dégagées. Cette étude a permis de montrer que la transformation cosinus discrète (TCD) possède des caractéristiques essentielles pour réaliser une compression efficace. L'outil TCD a ensuite été étudié sous différents aspects, tels que ses propriétés mathématiques, statistiques et les algorithmes rapides associés. Une architecture spécialisée parallèle et pipelinée a été développée afin de montrer la faisabilité de la mise en œuvre de cette transformation, même pour des applications susceptibles de fonctionner à la cadence vidéo (25 images / seconde). En se basant sur ces études, une base complète de méthodologies de quantification et de codage dans le plan transformé a été proposée. L'auto adaptabilité naturelle de l'approche par seuillage nous a conduit à l'adopter et à optimiser le codage du masque de seuillage. Plusieurs méthodes ont été développées et comparées. Nous avons, par ailleurs, proposé une méthode de déconvolution par algorithme itératif de façon à reconstituer une partie des coefficients perdus au moment du seuillage. Les résultats obtenus sont encourageants, en particulier pour les taux de compression élevés. Ces travaux nous ont amené à développer une méthode de compression optimale lorsqu'on ne tient pas compte des contraintes que peut imposer une application particulière. Cette méthode qui utilise un seuillage énergétique constitue une méthode particulièrement efficace. Enfin, dans le cadre de la mission internationale d'exploration interplanétaire Phobos II, nous avons mis au point un algorithme de compression d'images en tenant compte des nombreuses contraintes sévères (matérielles et logicielles) de cette application. Cet algorithme a été ensuite écrit en langage assembleur du calculateur de bord et implanté avec succès sur la sonde Phobos en Mars 1988. La procédure de décompression, développée en parallèle, sera activée dès la réception des premières images de la surface de Phobos à partir d'Avril.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Perrot, Romuald. « Lobes de cosinus et visibilité pour la simulation d'éclairage ». Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2304/document.

Texte intégral
Résumé :
La simulation des réflexions lumineuses multiples à l'intérieur d'un environnement nécessite de résoudre une intégrale de premier ordre, récursive infinie, pour laquelle il n'existe pas de solution analytique dans le cas général. Certaines méthodes permettent de donner une solution théorique exacte, mais avec des temps de calcul trop important pour espérer produire plusieurs images par seconde dans un avenir proche. De nombreuses méthodes permettent de réaliser ces calculs de manière plus rapide, mais elles reposent sur des approximations dont les effets sont souvent visibles sur les images produites. Notre objectif est de proposer des solutions permettant de réduire les erreurs de calculs en exploitant deux approches complémentaires : (i) une homogénéisation des termes de l'équation de manière à la résoudre seulement à l'aide de quelques opérateurs simples ; (ii) la prise en compte précise des informations de visibilité pour réduire le biais des méthodes reposant sur une estimation de densité. A terme, notre objectif est de diminuer le coût des requêtes de visibilité de nos deux contributions. Pour cela nous envisageons notamment d'introduire des calculs hiérarchiques de visibilité de façon à amortir le coût global des requêtes
Simulating light transfer within a virtual environment requires to solve a first order, infinite recursive integral, that unfortunately doesn't have any solution in general cases. Though theoretically exact solutions exist, their computing time is not adapted to real-time rendering in a near future. Many methods have been proposed for accelerating these computations, but they rely on approximations that often produce visible artifacts on the resulting images. Our goal is to propose some new solutions that can reduce biases with two complementary approaches : (i) a new homogeneous representation of each term of the equation can be used to resolve it using only simple operators ; (ii) considering precise visibility information in order to reduce bias of methods that rely on density estimation. On the long range, we aim at reducing visibility requests costs of each contribution. For that purpose, we particularly plan to introduce hierarchical visibility computations so as to amortize queries cost
Styles APA, Harvard, Vancouver, ISO, etc.
3

Loeng, Ratha. « Les fonctions sinus et cosinus dans le secondaire en France et au Cambodge ». Thesis, Université de Paris (2019-....), 2019. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=3972&f=25464.

Texte intégral
Résumé :
Les thèmes « Trigonométrie » et « Fonctions trigonométriques » sont intéressants mais peu traités en didactique des mathématiques, notamment dans le contexte français. Ils sont pourtant présents de longue date dans les curriculums français et cambodgien. Nous nous intéressons à l’apprentissage par les élèves de ces thèmes mathématiques dans l’enseignement secondaire, ainsi qu’aux difficultés de compréhension qui leurs sont liées.Les objets d’étude du secondaire « cosinus et sinus d’un angle géométrique », « cosinus et sinus d’un nombre réel », « cosinus et sinus d’un angle orienté » et « fonctions cosinus et sinus usuelles d’une variable réelle » constituent des notions délicates du point de vue mathématique autant que didactique : il y a des changements de cadres, des changements d’objets mathématiques (grandeurs « angle » et « longueur » – et leurs mesures – nombres réels) avec les mêmes signes « » et « » utilisés pour désigner des objets d’étude différents. Nous nous focalisons sur les passages entre les différents cadres, sur les difficultés des élèves dans l’apprentissage, et en particulier, sur le passage de la trigonométrie du cercle trigonométrique vers les fonctions cosinus et sinus d’une variable réelle, en France, en Terminale Scientifique (correspondant au programme de Première « spécialité Mathématiques » en vigueur à partir de la rentrée 2019) et en 11e au Cambodge (correspondant à la Première en France).Pour notre étude, nous nous appuyons principalement sur l’organisation praxéologique de la Théorie Anthropologique du Didactique. Nous déterminons trois organisations mathématiques locales (OML) correspondant à la trigonométrie du triangle, à la trigonométrie du cercle et enfin aux fonctions trigonométriques à partir de l’étude de curriculums français et cambodgiens d’enseignement de la trigonométrie et des fonctions sinus et cosinus dans le secondaire, auxquelles nous associons un travail sur une sélection de manuels. Nous présentons une théorie mathématique permettant de justifier, construire et coordonner rigoureusement les trois OML. Puis nous élaborons, à l’aide des outils d’analyse des tâches de la Double Approche didactique et ergonomique, un questionnaire portant sur les trois OML déterminées, destiné à des élèves de Terminale Scientifique, afin d’évaluer les effets de l’enseignement de la trigonométrie et des fonctions sinus et cosinus dans le secondaire. L’étude des curriculums, l’étude mathématique et le questionnaire, dans les contextes français et cambodgien, nous conduisent à concevoir, à l’aide des outils d’analyse de la structuration des milieux de la Théorie des Situations Didactiques, une situation didactique se focalisant sur la notion de périodicité afin de faire découvrir les notions de fonctions sinus et cosinus via un registre graphique, au niveau Terminale Scientifique en France et au niveau 11e au Cambodge.Les résultats sur l’ensemble de notre travail de recherche prouvent les difficultés de compréhension chez les élèves sur ces deux thèmes via les trois OML et révèlent les obstacles didactique et épistémologique dans l’enseignement et l’apprentissage des objets cosinus et sinus ainsi que des objets mathématiques qui les accompagnent. Des recherches ciblées, se focalisant sur les deux obstacles indiqués précédemment, du côté des élèves et du côté des enseignants, pourront conduire à une organisation didactique permettant d’éviter l’obstacle didactique dans l’enseignement et l’apprentissage des deux thèmes dans le secondaire
The themes “Trigonometry” and “Trigonometric Functions” are interesting but not very well covered in mathematics didactic, especially in the French context. However, they have long been present in French and Cambodian curricula. We are interested in students’ learning of these mathematical themes in secondary education, as well as the difficulties of understanding related to them. The study objects of secondary school, namely “cosine and sine of a geometric angle”, “cosine and sine of a real number”, “cosine and sine of an oriented angle” and “usual cosine and sine functions of a real variable”, constitute both mathematical and didactical difficulties: there are changes in settings, changes in mathematical objects (quantities “angle” and “length” – and their measurements – real numbers) with the same signs “ ” and “ ” used to designate different study objects. We focus on transitions between different settings, on students’ difficulties in learning, and in particular on the switch between the trigonometry of the trigonometric circle and the cosine and sine functions of a real variable, in French Terminale Scientifique (grade 12) (corresponding to the Première (grade 11) “Spécialité Mathématiques” curriculum in force for the new school year in September 2019) and in grade 11 in Cambodia (corresponding to the Première in France). For our study, we mainly rely on the praxeological organization of the Anthropological Theory of the Didactic. We determine three local mathematical organizations (LMO) corresponding to the trigonometry of the triangle, the trigonometry of the circle and the trigonometric functions. These LMOs arise from the study of French and Cambodian curricula pertaining to trigonometry, sine and cosine functions in secondary school, along with analyzes of a selection of textbooks. We present a mathematical theory to justify, construct and rigorously coordinate the three LMOs. Then, using the task analysis tools of the didactic/ergonomic Double Approach, we elaborate a questionnaire on the three determined LMOs. This is intended for grade 12 students, in order to evaluate the effects of the teaching trigonometry, sine and cosine functions in secondary school. The curricula study, the mathematical study and the questionnaire, in the French and Cambodian contexts, lead us to conceive, using the milieus structuration analysis tools from the Theory of Didactic Situations, a didactical situation focusing on the notion of periodicity aiming to discover the notions of sine and cosine functions via a graphical register, both in grade 12 in France and in grade 11 in Cambodia. The results on the whole research show students’ difficulties in understanding these two themes via the three LMOs and reveal both a didactical and an epistemological obstacle in the teaching and learning of the cosine and sine objects as well as the mathematical objects that accompany them. Carrying out targeted research by focusing on the mentioned abode obstacle, on the students’ side and on the teachers’ side, will lead to a didactical organization allowing to avoid the teaching and learning didactical obstacle of the two themes in secondary school
Styles APA, Harvard, Vancouver, ISO, etc.
4

Auclair, Beaudry Jean-Sébastien. « Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète ». Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1511.

Texte intégral
Résumé :
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Eude, Thierry. « Compression d'images médicales pour la transmission et l'archivage, par la transformée en cosinus discrète ». Rouen, 1993. http://www.theses.fr/1993ROUES056.

Texte intégral
Résumé :
En milieu hospitalier, l'utilisation de l'imagerie prend une place de plus en plus importante. Mais la quantité d'informations que représentent les images quand on parle d'archivage ou de transmission numérique pose des problèmes très préoccupants. Une réponse à ceux-ci consiste à compresser ces images. De nombreuses méthodes existent. La plus utilisée est basée sur la transformée en cosinus discrète (TCD). Elle constitue le noyau de la norme JPEG sur la compression des images fixes. Les travaux présentés dans ce manuscrit, consistent à déterminer des outils pouvant être intégrés à cette norme, et adaptés spécifiquement aux images médicales. Une étude statistique a donc été faite de façon extensive pour déterminer les lois que suivent les coefficients résultant de la TCD de ces images. Les résultats obtenus sont alors utilisés pour adapter la compression
Styles APA, Harvard, Vancouver, ISO, etc.
6

Dugas, Alexandre. « Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition ». Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6174.

Texte intégral
Résumé :
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Hmida, Hedi. « Etude et comparaison d'algorythmes de transformée en cosinus discrète en vue de leur intégration VLSI ». Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37614318f.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Hmida, Hedi. « Étude et comparaison d'algorithmes de transformée en cosinus discrète en vue de leur intégration en VLSI ». Paris 11, 1988. http://www.theses.fr/1988PA112133.

Texte intégral
Résumé :
On envisage actuellement l'utilisation de la transformée en cosinus discrète (TCD), pour la compression de données d'images fixes (télécopie, vidéotexte. . . ) ou animées (TV, visio-conférence. . . ). Des algorithmes rapides de calcul de cette transformée existent mais des problèmes (liés à la structure des algorithmes) se posent au niveau de leur intégration en VLSI. Nous avons situé ce travail au niveau de l'interaction algorithme ­ architecture à plusieurs niveaux: d'une part, l'étude de deux algorithmes classiques de TCD nous a permis de sélectionner un certain nombre d'opérateurs spécifiques des algorithmes rapides à 2 dimensions. Et, après une présentation générale des architectures de circuits VLSI (architecture série, parallèle, pipeline, systolique. . . ), nous proposons un ensemble d'opérateurs arithmétiques nouveaux. La nouveauté porte soit sur la réduction de la complexité d'opérateurs classiques (schémas simplifiés d'additionneurs), soit sur l'originalité de leurs fonction (additionneur­ soustracteur, ou "papillon"). Puis, nous appliquons l'ensemble de ces outils à l'implantation d'algorithmes classiques, en essayant de dégager les points qui favorisent ou qui gênent leur implantation VLSI. Ceci résulte d'une part dans plusieurs propositions d'architectures mais aussi (et surtout) d'un essai de mise en évidence des problèmes propres à ces algorithmes, ce qui nous a conduit à proposer plusieurs nouveaux algorithmes corrigeant les défauts essentiels des algorithmes classiques.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Qamar, Ali Mustafa. « Mesures de similarité et cosinus généralisé : une approche d'apprentissage supervisé fondée sur les k plus proches voisins ». Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00591988.

Texte intégral
Résumé :
Les performances des algorithmes d'apprentissage automatique dépendent de la métrique utilisée pour comparer deux objets, et beaucoup de travaux ont montré qu'il était préférable d'apprendre une métrique à partir des données plutôt que se reposer sur une métrique simple fondée sur la matrice identité. Ces résultats ont fourni la base au domaine maintenant qualifié d'apprentissage de métrique. Toutefois, dans ce domaine, la très grande majorité des développements concerne l'apprentissage de distances. Toutefois, dans certaines situations, il est préférable d'utiliser des similarités (par exemple le cosinus) que des distances. Il est donc important, dans ces situations, d'apprendre correctement les métriques à la base des mesures de similarité. Il n'existe pas à notre connaissance de travaux complets sur le sujet, et c'est une des motivations de cette thèse. Dans le cas des systèmes de filtrage d'information où le but est d'affecter un flot de documents à un ou plusieurs thèmes prédéfinis et où peu d'information de supervision est disponible, des seuils peuvent être appris pour améliorer les mesures de similarité standard telles que le cosinus. L'apprentissage de tels seuils représente le premier pas vers un apprentissage complet des mesures de similarité. Nous avons utilisé cette stratégie au cours des campagnes CLEF INFILE 2008 et 2009, en proposant des versions en ligne et batch de nos algorithmes. Cependant, dans le cas où l'on dispose de suffisamment d'information de supervision, comme en catégorisation, il est préférable d'apprendre des métriques complètes, et pas seulement des seuils. Nous avons développé plusieurs algorithmes qui visent à ce but dans le cadre de la catégorisation à base de k plus proches voisins. Nous avons tout d'abord développé un algorithme, SiLA, qui permet d'apprendre des similarités non contraintes (c'est-à-dire que la mesure peut être symétrique ou non). SiLA est une extension du perceptron par vote et permet d'apprendre des similarités qui généralisent le cosinus, ou les coefficients de Dice ou de Jaccard. Nous avons ensuite comparé SiLA avec RELIEF, un algorithme standard de re-pondération d'attributs, dont le but n'est pas sans lien avec l'apprentissage de métrique. En effet, il a récemment été suggéré par Sun et Wu que RELIEF pouvait être considéré comme un algorithme d'apprentissage de métrique avec pour fonction objectif une approximation de la fonction de perte 0-1. Nous montrons ici que cette approximation est relativement mauvaise et peut être avantageusement remplacée par une autre, qui conduit à un algorithme dont les performances sont meilleurs. Nous nous sommes enfin intéressés à une extension directe du cosinus, extension définie comme la forme normalisée d'un produit scalaire dans un espace projeté. Ce travail a donné lieu à l'algorithme gCosLA. Nous avons testé tous nos algorithmes sur plusieurs bases de données. Un test statistique, le s-test, est utilisé pour déterminer si les différences entre résultats sont significatives ou non. gCosLA est l'algorithme qui a fourni les meilleurs résultats. De plus, SiLA et gCosLA se comparent avantageusement à plusieurs algorithmes standard, ce qui illustre leur bien fondé.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Maschio, Nicole. « Contribution à la compression d'images numériques par codage prédictif et transformée en cosinus discrète avec utilisation de codes arithmétiques ». Nice, 1989. http://www.theses.fr/1989NICE4281.

Texte intégral
Résumé :
Amélioration, sans dégradation de la qualité de l'image, du rendement de systèmes de compressions d'images bases respectivement sur le codage prédictif et sur la transformée en cosinus discrète. On traite le signal a la sortie du quantificateur
Styles APA, Harvard, Vancouver, ISO, etc.
11

Urbano, Rodriguez Luis Alberto. « Contribution à la compression d'images par transformée en cosinus discrète en imagerie médicale, et évaluation sur une base d'images multi-modalités ». Tours, 1991. http://www.theses.fr/1991TOUR3307.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Miliani, El Hadj. « Commande d'un convertisseur matriciel : application à un générateur actif ». Besançon, 2005. http://www.theses.fr/2005BESA2086.

Texte intégral
Résumé :
L’auteur propose dans ce travail une contribution à la commande d’un convertisseur matriciel à commutation naturelle destiné à une application pour la génération d’énergie électrique à vitesse variable et fréquence fixe. L’association alternateur – convertisseur matriciel est appelée générateur actif. Ce travail contribue à la recherche d’une solution au problème de la production et de la gestion de l’énergie électrique à vitesse variable et fréquence fixe. Cette solution est basée sur une liaison étroite d’un convertisseur matriciel et d’un alternateur polyphasé pour obtenir une commutation naturelle. Dans le premier chapitre de ce mémoire, l’auteur situe l’étude dans son contexte général ; des exemples de production d’énergie électrique à vitesse variable sont présentés. L’intérêt de la vitesse variable et le rôle des convertisseurs statiques sont mis en avant. Une solution basée sur l’association d’un alternateur à un convertisseur matriciel à thyristors est retenue. La topologie et le principe de fonctionnement du convertisseur sont également présentés dans ce chapitre. Afin de mettre en évidence le fonctionnement de l’ensemble, une étude détaillée de l’association alternateur polyphasé - convertisseur matriciel est présentée dans le deuxième chapitre. Dans le troisième chapitre l’auteur présente une méthode de commande originale permettant le contrôle simultané de la fréquence, de l’amplitude et de la phase de la tension de sortie ; elle est basée sur des ondes d’allumage en cosinus des interrupteurs. En effet, contrairement à la méthode de commande présentée dans le premier chapitre, cette commande permet d’obtenir une tension de sortie qui s’adapte sur une onde de référence ayant les caractéristiques désirées. Cette stratégie de commande est basée sur la détermination des instants de commutation par les intersections entre deux ondes, une onde de modulation et une autre de référence. Dans le dernier chapitre de ce mémoire, l’auteur présente une validation expérimentale de l’étude théorique. Divers problèmes liés à l’interfaçage et à la mise en place du système de commande sont soulevés et des solutions détaillées sont proposées. L’ensemble des tâches nécessaires à la détermination des commandes des interrupteurs est également présenté. Les résultats expérimentaux confirment la théorie développée
The author proposes a contribution to the control of a naturally commutated matrix converter used in a variable speed constant frequency generating system. The association of the matrix converter and the synchronous generator is called active generator. This work describes a low cost and robust solution for the frequency conversion by using natural commutations. In the first chapter, the author presents several examples of variable speed constant frequency generating systems which transform the variable speed mechanical energy to a constant frequency electrical power. The matrix converter topology and its operation principle are also described. In order to present the active generator, a detailed study of the association “matrix converter - six-phase synchronous generator” is detailed in the second chapter; the system operation under several constraints is given too. In the third chapter, the author presents an innovative control strategy which permits the simultaneous control of the frequency, the phase and the amplitude of the output wave; this strategy is based on cosine modulation waves. Contrary to the control strategy presented in the first chapter, this control philosophy permits to obtain a regulated output wave. The output voltage waveform is done in such a way that the actual output waveform always has the nearest possible instantaneous value to a sinusoidal reference waveform of desired output frequency, desired phase and amplitude. Commutation instants are determined by the intersection of the reference voltage and the cosine modulation waves. The last chapter deals with the implementation of the control strategies on a digital signal processor DSP. Experimental results are presented and compared to those obtained by simulation
Styles APA, Harvard, Vancouver, ISO, etc.
13

Coudoux, François-Xavier. « Evaluation de la visibilité des effets de blocs dans les images codées par transformée : application à l'amélioration d'images ». Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/a0a7cc38-609d-4d86-9c3a-a018590bc012.

Texte intégral
Résumé :
Les méthodes de codage avec perte basées sur la Transformée en Cosinus Discrète constituent la base de la plupart des standards actuels de compression d'images numériques. Ce type de codage par Transformée nécessite une segmentation préalable de l'image en blocs de pixels disjoints. L'effet de blocs constitue le principal défaut de ce type de codage: les frontières entre blocs adjacents deviennent visibles pour des taux de compression élevés. Ce défaut est particulièrement gênant pour l'observateur, et affecte sévèrement la qualité visuelle de l'image reconstruite. Le but de notre étude est de proposer une méthode de détection locale des artefacts, ainsi qu'une mesure de leur importance visuelle. Cette mesure, qui prend en compte plusieurs propriétés du système visuel humain, caractérise la dégradation introduite dans l'image par la distorsion de blocs. Elle est utilisée afin d'établir un critère de qualité globale des images codées JPEG. Ce critère permet de quantifier la qualité des images reconstruites, en attribuant une note de qualité à l'image dégradée. Une application directe des résultats de la mesure des visibilités des effets de blocs concerne la détection et la correction de ces défauts à l'intérieur d'une image traitée par blocs. Nous présentons une méthode originale de réduction des effets de blocs; elle consiste en un filtrage local adaptatif à la visibilité des artefacts de blocs dans l'image. La correction apportée permet de réduire sensiblement les défauts les plus visibles, sans dégrader le reste de l'image. La méthode est validée dans le cas d'images fixes codées JPEG; son extension immédiate aux standards MPEG1 et MPEG2 de compression de séquences d'images reste possible, moyennant éventuellement la prise en compte des propriétés temporelles de la vision. Une implémentation matérielle est envisagée sous forme d'un circuit électronique, qui pourra être utilisé sur les terminaux de consultation multimédia afin d'améliorer la qualité visuelle de l'image avant affichage final.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Nortershauser, David. « Résolution de problèmes inverses tridimensionnels instationnaires de conduction de la chaleur ». Toulouse, ENSAE, 2000. http://www.theses.fr/2000ESAE0017.

Texte intégral
Résumé :
L'étude a pour objectif l'estimation d'échanges de chaleur surfaciques transitoires dans des environnements agressifs, c'est à dire inaccessibles à la mesure directe, tant dans les cas linéaires que non-linéaires. Les champs d'application concernés sont vastes : chambres de combustion, systèmes anti-givrage, caractérisation de réactions chimiques exothermiques. Une méthode de résolution inverse permet de résoudre ces problèmes. Une équation d'observation formée par des mesures de températures surfaciques sur une face est nécessaire à l'estimation des échanges. Dans la mesure où ces méthodes inverses sont très sensibles au bruit de mesure, il a été nécessaire d'adopter une stratégie de stabilisation des solutions efficace. De ce fait, l'utilisation d'une transformée en cosinus discrète (T. C. D. ) afin de filtrer et/ou compacter les données du problème constitue un point clé de l'étude. Chaque outil présenté est soumis à des tests numériques afin de connaître son domaine de validité. De plus, deux expériences de laboratoire permettent de juger des principales sources d'erreur rencontrées lors de la confrontation des modèles à la réalité.
Styles APA, Harvard, Vancouver, ISO, etc.
15

ZEMA, VANESSA. « Unveiling the Nature of Dark Matter with Direct Detection Experiments ». Doctoral thesis, Gran Sasso Science Institute, 2020. http://hdl.handle.net/20.500.12571/9943.

Texte intégral
Résumé :
The desire of discovery is an anthropic need which characterises and connects the human being over the eras. In particular, observing the sky is an instinctive drive exerted by the curiosity of the mysteries which it retains. At the present time, the tremendous advances in the exploration of space have opened even more challenges than back in the days. One of the most urgent question is unveiling the nature of dark matter (DM). As stated by Neta A. Bahcall (Professor at Princeton University), "Cosmology has revealed an amazing universe, filled with a "dark sector" that composes 95% of the energy density of our cosmos [...]" (Dark matter universe, PNAS, 2015). About one-third of this dark sector is associated to an invisible and still undetected form of matter, the so-called dark matter, whose gravitational effect manifests at all cosmological scales. Both theoretical and experimental observations based on ordinary gravity reinforced the evidences for the existence of DM, since its first appearance in the pioneering calculations of F. Zwicky (1933). This PhD project explores the hypothesis that DM is made of new particles beyond the standard model. More specifically, it focuses on those DM particles which are trapped into the galactic gravitational field and populate the galactic halo. If DM interacts with ordinary particles, extremely sensitive detectors operating in very low-background environments, are expected to detect galactic DM particles scattering off their target material. This widely employed experimental technique is known as DM direct detection and it is the focus of my studies, where I consider the further hypothesis that DM interacts with atomic nuclei. The research I conducted during my PhD program consists of two main parts: the first part focused on purely phenomenology aspects of the DM direct detection (namely on the DM annual modulation treated using a non-relativistic effective theory and on the scattering of spin-1 DM particles off polarised nuclei) and the second one is more closely connected to experimental applications. The latter has been strongly stimulated by my collaboration with the two DM direct detection experiments CRESST and COSINUS. For CRESST, I compute the DM-nucleus cross-section for the conventional spin-dependent interactions, used to analyse the data collected with a prototype Li-based detector module, and I derive some prospects for a time dependent analysis of CRESST-III data, using a statistical frequentist approach based on Monte Carlo simulations. For COSINUS, I provide a significant extension of the pulse shape model currently used by CRESST and COSINUS in order to explain experimental observations related to the COSINUS detector response. Finally, I contribute to ongoing studies on the phonon propagation in NaI crystals based on solid state physics. This PhD thesis has been oriented to fill the gap between theoretical and experimental efforts in the DM field. This approach has facilitated the exchange of expertise, has driven the trend of my research and has stimulated the development of the ideas and methods described in this PhD thesis.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Zhu, Zuowei. « Modèles géométriques avec defauts pour la fabrication additive ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN021/document.

Texte intégral
Résumé :
Les différentes étapes et processus de la fabrication additive (FA) induisent des erreurs de sources multiples et complexes qui soulèvent des problèmes majeurs au niveau de la qualité géométrique du produit fabriqué. Par conséquent, une modélisation effective des écarts géométriques est essentielle pour la FA. Le paradigme Skin Model Shapes (SMS) offre un cadre intégral pour la modélisation des écarts géométriques des produits manufacturés et constitue ainsi une solution efficace pour la modélisation des écarts géométriques en FA.Dans cette thèse, compte tenu de la spécificité de fabrication par couche en FA, un nouveau cadre de modélisation à base de SMS est proposé pour caractériser les écarts géométriques en FA en combinant une approche dans le plan et une approche hors plan. La modélisation des écarts dans le plan vise à capturer la variabilité de la forme 2D de chaque couche. Une méthode de transformation des formes est proposée et qui consiste à représenter les effets de variations sous la forme de transformations affines appliquées à la forme nominale. Un modèle paramétrique des écarts est alors établi dans un système de coordonnées polaires, quelle que soit la complexité de la forme. Ce modèle est par la suite enrichi par un apprentissage statistique permettant la collecte simultanée de données des écarts de formes multiples et l'amélioration des performances de la méthode.La modélisation des écarts hors plan est réalisée par la déformation de la couche dans la direction de fabrication. La modélisation des écarts hors plan est effectuée à l'aide d'une méthode orientée données. Sur la base des données des écarts obtenues à partir de simulations par éléments finis, deux méthodes d'analyse modale: la transformée en cosinus discrète (DCT) et l'analyse statistique des formes (SSA) sont exploitées. De plus, les effets des paramètres des pièces et des procédés sur les modes identifiés sont caractérisés par le biais d'un modèle à base de processus Gaussien.Les méthodes présentées sont finalement utilisées pour obtenir des SMSs haute-fidélité pour la fabrication additive en déformant les contours de la couche nominale avec les écarts prédits et en reconstruisant le modèle de surface non idéale complet à partir de ces contours déformés. Une toolbox est développée dans l'environnement MATLAB pour démontrer l'efficacité des méthodes proposées
The intricate error sources within different stages of the Additive Manufacturing (AM) process have brought about major issues regarding the dimensional and geometrical accuracy of the manufactured product. Therefore, effective modeling of the geometric deviations is critical for AM. The Skin Model Shapes (SMS) paradigm offers a comprehensive framework aiming at addressing the deviation modeling problem at different stages of product lifecycle, and is thus a promising solution for deviation modeling in AM. In this thesis, considering the layer-wise characteristic of AM, a new SMS framework is proposed which characterizes the deviations in AM with in-plane and out-of-plane perspectives. The modeling of in-plane deviation aims at capturing the variability of the 2D shape of each layer. A shape transformation perspective is proposed which maps the variational effects of deviation sources into affine transformations of the nominal shape. With this assumption, a parametric deviation model is established based on the Polar Coordinate System which manages to capture deviation patterns regardless of the shape complexity. This model is further enhanced with a statistical learning capability to simultaneously learn from deviation data of multiple shapes and improve the performance on all shapes.Out-of-plane deviation is defined as the deformation of layer in the build direction. A layer-level investigation of out-of-plane deviation is conducted with a data-driven method. Based on the deviation data collected from a number of Finite Element simulations, two modal analysis methods, Discrete Cosine Transform (DCT) and Statistical Shape Analysis (SSA), are adopted to identify the most significant deviation modes in the layer-wise data. The effect of part and process parameters on the identified modes is further characterized with a Gaussian Process (GP) model. The discussed methods are finally used to obtain high-fidelity SMSs of AM products by deforming the nominal layer contours with predicted deviations and rebuilding the complete non-ideal surface model from the deformed contours. A toolbox is developed in the MATLAB environment to demonstrate the effectiveness of the proposed methods
Styles APA, Harvard, Vancouver, ISO, etc.
17

Makki, Sara. « An Efficient Classification Model for Analyzing Skewed Data to Detect Frauds in the Financial Sector ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1339/document.

Texte intégral
Résumé :
Différents types de risques existent dans le domaine financier, tels que le financement du terrorisme, le blanchiment d’argent, la fraude de cartes de crédit, la fraude d’assurance, les risques de crédit, etc. Tout type de fraude peut entraîner des conséquences catastrophiques pour des entités telles que les banques ou les compagnies d’assurances. Ces risques financiers sont généralement détectés à l'aide des algorithmes de classification. Dans les problèmes de classification, la distribution asymétrique des classes, également connue sous le nom de déséquilibre de classe (class imbalance), est un défi très commun pour la détection des fraudes. Des approches spéciales d'exploration de données sont utilisées avec les algorithmes de classification traditionnels pour résoudre ce problème. Le problème de classes déséquilibrées se produit lorsque l'une des classes dans les données a beaucoup plus d'observations que l’autre classe. Ce problème est plus vulnérable lorsque l'on considère dans le contexte des données massives (Big Data). Les données qui sont utilisées pour construire les modèles contiennent une très petite partie de groupe minoritaire qu’on considère positifs par rapport à la classe majoritaire connue sous le nom de négatifs. Dans la plupart des cas, il est plus délicat et crucial de classer correctement le groupe minoritaire plutôt que l'autre groupe, comme la détection de la fraude, le diagnostic d’une maladie, etc. Dans ces exemples, la fraude et la maladie sont les groupes minoritaires et il est plus délicat de détecter un cas de fraude en raison de ses conséquences dangereuses qu'une situation normale. Ces proportions de classes dans les données rendent très difficile à l'algorithme d'apprentissage automatique d'apprendre les caractéristiques et les modèles du groupe minoritaire. Ces algorithmes seront biaisés vers le groupe majoritaire en raison de leurs nombreux exemples dans l'ensemble de données et apprendront à les classer beaucoup plus rapidement que l'autre groupe. Dans ce travail, nous avons développé deux approches : Une première approche ou classifieur unique basée sur les k plus proches voisins et utilise le cosinus comme mesure de similarité (Cost Sensitive Cosine Similarity K-Nearest Neighbors : CoSKNN) et une deuxième approche ou approche hybride qui combine plusieurs classifieurs uniques et fondu sur l'algorithme k-modes (K-modes Imbalanced Classification Hybrid Approach : K-MICHA). Dans l'algorithme CoSKNN, notre objectif était de résoudre le problème du déséquilibre en utilisant la mesure de cosinus et en introduisant un score sensible au coût pour la classification basée sur l'algorithme de KNN. Nous avons mené une expérience de validation comparative au cours de laquelle nous avons prouvé l'efficacité de CoSKNN en termes de taux de classification correcte et de détection des fraudes. D’autre part, K-MICHA a pour objectif de regrouper des points de données similaires en termes des résultats de classifieurs. Ensuite, calculez les probabilités de fraude dans les groupes obtenus afin de les utiliser pour détecter les fraudes de nouvelles observations. Cette approche peut être utilisée pour détecter tout type de fraude financière, lorsque des données étiquetées sont disponibles. La méthode K-MICHA est appliquée dans 3 cas : données concernant la fraude par carte de crédit, paiement mobile et assurance automobile. Dans les trois études de cas, nous comparons K-MICHA au stacking en utilisant le vote, le vote pondéré, la régression logistique et l’algorithme CART. Nous avons également comparé avec Adaboost et la forêt aléatoire. Nous prouvons l'efficacité de K-MICHA sur la base de ces expériences. Nous avons également appliqué K-MICHA dans un cadre Big Data en utilisant H2O et R. Nous avons pu traiter et analyser des ensembles de données plus volumineux en très peu de temps
There are different types of risks in financial domain such as, terrorist financing, money laundering, credit card fraudulence and insurance fraudulence that may result in catastrophic consequences for entities such as banks or insurance companies. These financial risks are usually detected using classification algorithms. In classification problems, the skewed distribution of classes also known as class imbalance, is a very common challenge in financial fraud detection, where special data mining approaches are used along with the traditional classification algorithms to tackle this issue. Imbalance class problem occurs when one of the classes have more instances than another class. This problem is more vulnerable when we consider big data context. The datasets that are used to build and train the models contain an extremely small portion of minority group also known as positives in comparison to the majority class known as negatives. In most of the cases, it’s more delicate and crucial to correctly classify the minority group rather than the other group, like fraud detection, disease diagnosis, etc. In these examples, the fraud and the disease are the minority groups and it’s more delicate to detect a fraud record because of its dangerous consequences, than a normal one. These class data proportions make it very difficult to the machine learning classifier to learn the characteristics and patterns of the minority group. These classifiers will be biased towards the majority group because of their many examples in the dataset and will learn to classify them much faster than the other group. After conducting a thorough study to investigate the challenges faced in the class imbalance cases, we found that we still can’t reach an acceptable sensitivity (i.e. good classification of minority group) without a significant decrease of accuracy. This leads to another challenge which is the choice of performance measures used to evaluate models. In these cases, this choice is not straightforward, the accuracy or sensitivity alone are misleading. We use other measures like precision-recall curve or F1 - score to evaluate this trade-off between accuracy and sensitivity. Our objective is to build an imbalanced classification model that considers the extreme class imbalance and the false alarms, in a big data framework. We developed two approaches: A Cost-Sensitive Cosine Similarity K-Nearest Neighbor (CoSKNN) as a single classifier, and a K-modes Imbalance Classification Hybrid Approach (K-MICHA) as an ensemble learning methodology. In CoSKNN, our aim was to tackle the imbalance problem by using cosine similarity as a distance metric and by introducing a cost sensitive score for the classification using the KNN algorithm. We conducted a comparative validation experiment where we prove the effectiveness of CoSKNN in terms of accuracy and fraud detection. On the other hand, the aim of K-MICHA is to cluster similar data points in terms of the classifiers outputs. Then, calculating the fraud probabilities in the obtained clusters in order to use them for detecting frauds of new transactions. This approach can be used to the detection of any type of financial fraud, where labelled data are available. At the end, we applied K-MICHA to a credit card, mobile payment and auto insurance fraud data sets. In all three case studies, we compare K-MICHA with stacking using voting, weighted voting, logistic regression and CART. We also compared with Adaboost and random forest. We prove the efficiency of K-MICHA based on these experiments
Styles APA, Harvard, Vancouver, ISO, etc.
18

Virette, David. « Étude de transformées temps-fréquence pour le codage audio faible retard en haute qualité ». Rennes 1, 2012. http://www.theses.fr/2012REN1E014.

Texte intégral
Résumé :
In recent years there has been a phenomenal increase in the number of products and applications which make use of audio coding formats. Among the most successful audio coding schemes, we can list the MPEG-1 Layer III (mp3), the MPEG-2 Advanced Audio Coding (AAC) or its evolution MPEG-4 High Efficiency-Advanced Audio Coding (HE-AAC). More recently, perceptual audio coding has been adapted to achieve low delay audio coding and to become suitable for conversational applications. Traditionally, the use of filter bank such as the Modified Discrete Cosine Transform (MDCT) is a central component of perceptual audio coding and its adaptation to low delay audio coding has become a very popular re­search topic. Low delay transforms have been developed Fin order to main­tain the performances of this main component while reducing dramatically the associated algorithmic delay. This work presents a low delay block switching tool which aliows the di­rect transition between long transform and short transform without the in­sertion of transition window. The same principle has been extended to de­fine new perfect reconstruction conditions for the MDCT with relaxed con­straints compared to the original definition. A seamless reconstruction method has been derived allowing to increase the flexibility of transform coding schemes with the possibility to select a transform window inde­pendently from the previous and the following frames. Additionally, based on this new approach, a new low delay window design procedure has been derived allowing to obtain an analytic defmition. Those new approaches have been successfully applied to the newly devel­oped MPEG low delay audio coding (LD-AAC and ELD-AAC) allowing to significantly improve the quality for transient signais. Moreover, the low delay window design has been adopted in G. 718, a scalable speech and au­dio codec standardized in ITU-T and has demonstrated its benefit in terms of delay reduction while maintaining the audio quality of a traditional MDCT.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Mammeri, Abdelhamid. « Compression et transmission d'images avec énergie minimale application aux capteurs sans fil ». Thèse, Université de Sherbrooke, 2010. http://hdl.handle.net/11143/5800.

Texte intégral
Résumé :
Un réseau de capteurs d'images sans fil (RCISF) est un réseau ad hoc formé d'un ensemble de noeuds autonomes dotés chacun d'une petite caméra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure établie, ni d'une gestion de réseau centralisée. Leur utilité semble majeure dans plusieurs domaines, notamment en médecine et en environnement. La conception d'une chaîne de compression et de transmission sans fil pour un RCISF pose de véritables défis. L'origine de ces derniers est liée principalement à la limitation des ressources des capteurs (batterie faible , capacité de traitement et mémoire limitées). L'objectif de cette thèse consiste à explorer des stratégies permettant d'améliorer l'efficacité énergétique des RCISF, notamment lors de la compression et de la transmission des images. Inéluctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est éner- givore, et limite ainsi la longévité des RCISF. Cela nécessite leur adaptation aux contraintes imposées par les RCISF. Pour cela, nous avons analysé en premier lieu, la faisabilité d'adapter JPEG au contexte où les ressources énergétiques sont très limitées. Les travaux menés sur cet aspect nous permettent de proposer trois solutions. La première solution est basée sur la propriété de compactage de l'énergie de la Transformée en Cosinus Discrète (TCD). Cette propriété permet d'éliminer la redondance dans une image sans trop altérer sa qualité, tout en gagnant en énergie. La réduction de l'énergie par l'utilisation des régions d'intérêts représente la deuxième solution explorée dans cette thèse. Finalement, nous avons proposé un schéma basé sur la compression et la transmission progressive, permettant ainsi d'avoir une idée générale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non énergivore, nous avons opté pour la solution suivante. N'envoyer fiablement que les basses fréquences et les régions d'intérêt d'une image. Les hautes fréquences et les régions de moindre intérêt sont envoyées""infiablement"", car leur pertes n'altèrent que légèrement la qualité de l'image. Pour cela, des modèles de priorisation ont été comparés puis adaptés à nos besoins. En second lieu, nous avons étudié l'approche par ondelettes (wavelets ). Plus précisément, nous avons analysé plusieurs filtres d'ondelettes et déterminé les ondelettes les plus adéquates pour assurer une faible consommation en énergie, tout en gardant une bonne qualité de l'image reconstruite à la station de base. Pour estimer l'énergie consommée par un capteur durant chaque étape de la 'compression, un modèle mathématique est développé pour chaque transformée (TCD ou ondelette). Ces modèles, qui ne tiennent pas compte de la complexité de l'implémentation, sont basés sur le nombre d'opérations de base exécutées à chaque étape de la compression.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Atrevi, Dieudonne Fabrice. « Détection et analyse des évènements rares par vision, dans un contexte urbain ou péri-urbain ». Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE2008.

Texte intégral
Résumé :
L’objectif principal de cette thèse est le développement de méthodes complètes de détection d’événements rares. Les travaux de cette thèse se résument en deux parties. La première partie est consacrée à l’étude de descripteurs de formes de l’état de l’art. D’une part, la robustesse de certains descripteurs face à différentes conditions de luminosité a été étudiée. D’autre part, les moments géométriques ont été comparés à travers une application d’estimation de pose humaine 3D à partir d’image 2D. De cette étude, nous avons montré qu’à travers une application de recherche de formes, les moments géométriques permettent d’estimer la pose d’une personne à travers une recherche exhaustive dans une base d’apprentissage de poses connues.Cette application peut être utilisée dans un système de reconnaissance d’actions pour une analyse plus fine des événements détectés. Dans la deuxième partie, trois contributions à la détection d’événements rares sont présentées. La première contribution concerne l’élaboration d’une méthode d’analyse globale de scène pour la détection des événements liés aux mouvements de foule. Dans cette approche, la modélisation globale de la scène est faite en nous basant sur des points d’intérêt filtrés à partir de la carte de saillance de la scène. Les caractéristiques exploitées sont l’histogramme des orientations du flot optique et un ensemble de descripteur de formes étudié dans la première partie. L’algorithme LDA (Latent Dirichlet Allocation) est utilisé pour la création des modèles d’événements à partir d’une représentation en document visuel à partir de séquences d’images (clip vidéo). La deuxième contribution consiste en l’élaboration d’une méthode de détection de mouvements saillants ou dominants dans une vidéo. La méthode, totalement non supervisée,s’appuie sur les propriétés de la transformée en cosinus discrète pour analyser les informations du flot optique de la scène afin de mettre en évidence les mouvements saillants. La modélisation locale pour la détection et la localisation des événements est au coeur de la dernière contribution de cette thèse. La méthode se base sur les scores de saillance des mouvements et de l’algorithme SVM dans sa version "one class" pour créer le modèle d’événements. Les méthodes ont été évaluées sur différentes bases publiques et les résultats obtenus sont prometteurs
The main objective of this thesis is the development of complete methods for rare events detection. The works can be summarized in two parts. The first part is devoted to the study of shapes descriptors of the state of the art. On the one hand, the robustness of some descriptors to varying light conditions was studied.On the other hand, the ability of geometric moments to describe the human shape was also studied through a3D human pose estimation application based on 2D images. From this study, we have shown that through a shape retrieval application, geometric moments can be used to estimate a human pose through an exhaustive search in a pose database. This kind of application can be used in human actions recognition system which may be a final step of an event analysis system. In the second part of this report, three main contributions to rare event detection are presented. The first contribution concerns the development of a global scene analysis method for crowd event detection. In this method, global scene modeling is done based on spatiotemporal interest points filtered from the saliency map of the scene. The characteristics used are the histogram of the optical flow orientations and a set of shapes descriptors studied in the first part. The Latent Dirichlet Allocation algorithm is used to create event models by using a visual document representation of image sequences(video clip). The second contribution is the development of a method for salient motions detection in video.This method is totally unsupervised and relies on the properties of the discrete cosine transform to explore the optical flow information of the scene. Local modeling for events detection and localization is at the core of the latest contribution of this thesis. The method is based on the saliency score of movements and one class SVM algorithm to create the events model. The methods have been tested on different public database and the results obtained are promising
Styles APA, Harvard, Vancouver, ISO, etc.
21

Makkaoui, Leila. « Compression d'images dans les réseaux de capteurs sans fil ». Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00795503.

Texte intégral
Résumé :
Cette thèse forme une contribution au problème de la conservation de l'énergie dans le cas particulier des réseaux de capteurs d'images, où une partie voire tous les nœuds du réseau sont équipés d'une petite caméra à technologie CMOS. Les images engagent des volumes de données très largement supérieurs aux mesures scalaires classiques telles que la température, et donc des dépenses énergétiques plus élevées. L'émetteur radio étant l'un des composants les plus gourmands en énergie, il est évident que la compression de l'image à la source peut réduire significativement l'énergie dépensée pour la transmission de l'image, tant au niveau du nœud caméra que des nœuds formant le chemin jusqu'au point de collecte. Toutefois, les méthodes de compression bien connues (JPEG, JPEG2000, SPIHT) sont mal adaptées à la limitation des ressources de calcul et de mémoire caractéristiques des nœuds-capteurs. Sur certaines plateformes matérielles, ces algorithmes ont même un coût énergétique supérieur au gain qu'ils amènent sur la transmission. Autrement dit, le nœud caméra épuise plus vite sa batterie en envoyant des images compressées que des images non compressées. La complexité de l'algorithme de compression est donc un critère de performance aussi important que le rapport débit-distorsion. Les contributions contenues dans ce mémoire de thèses sont triples : - Tout d'abord, nous avons proposé un algorithme de compression basé sur la transformée en cosinus discrète (DCT 8 points) de complexité réduite, combinant la méthode de DCT rapide la plus efficace de la littérature (DCT de Cordic-Loeffler) à une exécution réduite aux coefficients délimités par une zone carrée de taille k<8, les plus importants dans la reconstruction visuelle. Avec cette approche zonale, le nombre de coefficients à calculer, mais aussi à quantifier et encoder par bloc de 8x8 pixels est réduit à k^2 au lieu de 64, ce qui diminue mécaniquement le coût de la compression. - Nous avons ensuite étudié l'impact de k, donc du nombre de coefficients sélectionnés, sur la qualité de l'image finale. L'étude a été réalisée avec un jeu d'une soixantaine d'images de référence et la qualité des images était évaluée en utilisant plusieurs métriques, le PSNR, le PSNR-HVS et le MMSIM. Les résultats ont servi à identifier, pour un débit donné, la valeur limite de k qu'on peut choisir (statistiquement) sans dégradation perceptible de la qualité, et par conséquent les limites posées sur la réduction de la consommation d'énergie à débit et qualité constants. - Enfin, nous donnons les résultats de performances obtenus par des expérimentations sur une plateforme réelle composée d'un nœud Mica2 et d'une caméra Cyclops afin de démontrer la validité de nos propositions. Dans un scénario considérant des images de 128x128 pixels encodées à 0,5 bpp par exemple, la dépense d'énergie du nœud caméra (incluant compression et transmission) est divisée par 6 comparée au cas sans compression, et par 2 comparée au cas de l'algorithme JPEG standard.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Goujot, Daniel. « Méthodes d'ondelettes pour l'analyse numérique d'intégrales oscillantes ». Phd thesis, Université d'Evry-Val d'Essonne, 2004. http://tel.archives-ouvertes.fr/tel-00008353.

Texte intégral
Résumé :
Nous utilisons trois discrétisations connues pour leur localisation fréquentielle et spatiale: les bases d'ondelettes, les paquets d'ondelettes et les bases de cosinus locaux. Nous avons construit et programmé deux algorithmes: --- pour l'équation parabolique non-linéaire $\Delta(u)+\1e^(c*u)=f$ avec $f$ présentant une singularité, notre algorithme calcule la compression optimale en dimension 1 et 2, avec résultats numériques pour la dimension 1. --- pour l'équation intégrale oscillante correspondant à la Combined Integral Field Equation qui est en rapport avec le problème de diffraction des ondes (Helmholtz) par un obstacle régulier 2D, lorsque la longueur d'onde diminue vers $0$. Les trois discrétisations ci-dessus sont testées, et nous étudions sa bonne compressibité dans une analyse précise des obstacles à la compression menée de manière asymptotique. Des résultats originaux, montrant que N degrés de liberté par longueur d'onde suffisent à hautes fréquences, ont été démontrés, et les matrices résultant de ce seuillage ont été étudiées, illustrations et preuves à l'appui.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Nord, Magnus. « Cosine Modulated Filter Banks ». Thesis, Linköping University, Department of Electrical Engineering, 2003. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-1641.

Texte intégral
Résumé :

The initial goal of this report was to implement and compare cosine modulated filter banks. Because of time limitations, focus shifted towards the implementation. Filter banks and multirate systems are important in a vast range of signal processing systems. When implementing a design, there are several considerations to be taken into account. Some examples are word length, number systems and type of components. The filter banks were implemented using a custom made software, especially designed to generate configurable gate level code. The generated code was then synthesized and the results were compared. Some of the results were a bit curious. For example, considerable effort was put into implementing graph multipliers, as these were expected to be smaller and faster than their CSDC (Canonic Signed Digit Code) counterparts. However, with one exception, they turned out to generate larger designs. Another conclusion drawn is that the choice of FPGA is important. There are several things left to investigate, though. For example, a more thorough comparison between CSDC and graph multipliers should be carried out, and other DCT (Discrete Cosine Transform) implementations should be investigated.

Styles APA, Harvard, Vancouver, ISO, etc.
24

Castelan, Ivair Carlos. « Zeno Cosini, uma identidade possível ? » Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/8/8148/tde-18122008-113616/.

Texte intégral
Résumé :
Publicado no ano de 1923, o romance A consciência de Zeno é importante por instaurar uma narrativa que traz em seu cerne a modernidade que rompe e transgride os cânones do modelo literário. O homem retratado por ela será marcado por frustrações, rodeado pelo vazio, atormentado pela angústia de viver. Assim nos é apresentado o narrador Zeno Cosini, cujo caráter é colocado em dúvida, já no prefácio, por seu suposto psicanalista e editor do texto. Enigmático e ambíguo, o senhor Cosini recorrerá, ao longo da enunciação de suas memórias, ao uso de várias máscaras para velar sua(s) identidade(s). Procurando o tempo todo ocultar-se, disfarçar-se, Zeno deixa em seu leitor um grande ponto de interrogação quanto à sua identidade e também o desafio de tentar responder Quem é Zeno, afinal?. Assim, o objeto desta dissertação é investigar a(s) possível(eis) identidade(s) do narrador Zeno Cosini. Seguindo os meandros mais profundos de seu discurso, o presente trabalho procura desvelar, desmascarar o senhor Cosini que, por trás de suas máscaras, de seu discurso irônico e ambíguo, esconde uma identidade tão fragmentada e múltipla quanto a do homem de sua época. Não pretendemos estabelecer um único rótulo a este narrador, mesmo porque isso seria impossível. Nosso principal objetivo é rastrear seus passos, ouvir suas vozes dissonantes para, então, chegarmos a uma sentença acerca de sua constituição identitária, erigida através da narrativa.
Published in 1923, the novel La coscienza di Zeno (Confessions of Zeno/Zeno\'s conscience) is important for building a narrative which brings in its core the modernity which disrupts and transgresses literary model´s rules. The man described in it will be branded by frustrations, surrounded by nothingness, tormented by life´s anguish. In that context the narrator Zeno Cosini is introduced, whose character is dubious since the preface by his supposedly text editor and psychoanalyst. Puzzling and ambiguous, mister Cosini calls upon the use of many masks to cover his identity throughout his memories. By trying to hide and cover himself all the time, Zeno leaves to his reader an intriguing question about his identity, as well as the challenge of trying to answer Who is Zeno, anyway?. Therefore, this paper aims at investigating Zeno Cosini\'s possible identities. Following the deepest ways of his speech, the following paper seeks unveiling, uncovering Cosini that behind his masks, his ironic and ambiguous discourse hides such a fragmented and multiple identity as mankind of his age. It is not intended to label this writer even because it would be impossible. Our main goal is to trace his steps, hear his dissonant voices in order to reach a conclusion over his personality traits and identity structured through the narrative.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Martins, Joao Roberto Vasconcellos. « Speech compression using cosine packet decomposition ». Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 1996. http://handle.dtic.mil/100.2/ADA308262.

Texte intégral
Résumé :
Thesis (M.S. in Electrical Engineering) Naval Postgraduate School, March 1996.
Thesis advisor(s): M. Fargues, Ralph Hippenstiel. "March 1996." Includes bibliographical references. Also available online.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Hu, Ta-Hsiang. « Discrete cosine transform implementation in VHDL ». Thesis, Monterey, California : Naval Postgraduate School, 1990. http://handle.dtic.mil/100.2/ADA245791.

Texte intégral
Résumé :
Thesis (M.S. in Electrical Engineering)--Naval Postgraduate School, December 1990.
Thesis Advisor(s): Lee, Chin-Hwa ; Yang, Chyan. "December 1990." Description based on title screen as viewed on March 29, 2010. DTIC Identifier(s): Fast Fourier Transform, High Level Languages, CHIPS (Electronics), Computerized Simulation, Signal Processing, Theses, Algorithms, Floating Point Operation, VHDL (Vhsic Hardware Description Language). Author(s) subject terms: FFT System, DCT System Implementation. Includes bibliographical references (p. 152). Also available in print.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Mohammadzadeh, Hadi. « Improving Retrieval Accuracy in Main Content Extraction from HTML Web Documents ». Doctoral thesis, Universitätsbibliothek Leipzig, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-130500.

Texte intégral
Résumé :
The rapid growth of text based information on the World Wide Web and various applications making use of this data motivates the need for efficient and effective methods to identify and separate the “main content” from the additional content items, such as navigation menus, advertisements, design elements or legal disclaimers. Firstly, in this thesis, we study, develop, and evaluate R2L, DANA, DANAg, and AdDANAg, a family of novel algorithms for extracting the main content of web documents. The main concept behind R2L, which also provided the initial idea and motivation for the other three algorithms, is to use well particularities of Right-to-Left languages for obtaining the main content of web pages. As the English character set and the Right-to-Left character set are encoded in different intervals of the Unicode character set, we can efficiently distinguish the Right-to-Left characters from the English ones in an HTML file. This enables the R2L approach to recognize areas of the HTML file with a high density of Right-to-Left characters and a low density of characters from the English character set. Having recognized these areas, R2L can successfully separate only the Right-to-Left characters. The first extension of the R2L, DANA, improves effectiveness of the baseline algorithm by employing an HTML parser in a post processing phase of R2L for extracting the main content from areas with a high density of Right-to-Left characters. DANAg is the second extension of the R2L and generalizes the idea of R2L to render it language independent. AdDANAg, the third extension of R2L, integrates a new preprocessing step to normalize the hyperlink tags. The presented approaches are analyzed under the aspects of efficiency and effectiveness. We compare them to several established main content extraction algorithms and show that we extend the state-of-the-art in terms of both, efficiency and effectiveness. Secondly, automatically extracting the headline of web articles has many applications. We develop and evaluate a content-based and language-independent approach, TitleFinder, for unsupervised extraction of the headline of web articles. The proposed method achieves high performance in terms of effectiveness and efficiency and outperforms approaches operating on structural and visual features
Das rasante Wachstum von textbasierten Informationen im World Wide Web und die Vielfalt der Anwendungen, die diese Daten nutzen, macht es notwendig, effiziente und effektive Methoden zu entwickeln, die den Hauptinhalt identifizieren und von den zusätzlichen Inhaltsobjekten wie z.B. Navigations-Menüs, Anzeigen, Design-Elementen oder Haftungsausschlüssen trennen. Zunächst untersuchen, entwickeln und evaluieren wir in dieser Arbeit R2L, DANA, DANAg und AdDANAg, eine Familie von neuartigen Algorithmen zum Extrahieren des Inhalts von Web-Dokumenten. Das grundlegende Konzept hinter R2L, das auch zur Entwicklung der drei weiteren Algorithmen führte, nutzt die Besonderheiten der Rechts-nach-links-Sprachen aus, um den Hauptinhalt von Webseiten zu extrahieren. Da der lateinische Zeichensatz und die Rechts-nach-links-Zeichensätze durch verschiedene Abschnitte des Unicode-Zeichensatzes kodiert werden, lassen sich die Rechts-nach-links-Zeichen leicht von den lateinischen Zeichen in einer HTML-Datei unterscheiden. Das erlaubt dem R2L-Ansatz, Bereiche mit einer hohen Dichte von Rechts-nach-links-Zeichen und wenigen lateinischen Zeichen aus einer HTML-Datei zu erkennen. Aus diesen Bereichen kann dann R2L die Rechts-nach-links-Zeichen extrahieren. Die erste Erweiterung, DANA, verbessert die Wirksamkeit des Baseline-Algorithmus durch die Verwendung eines HTML-Parsers in der Nachbearbeitungsphase des R2L-Algorithmus, um den Inhalt aus Bereichen mit einer hohen Dichte von Rechts-nach-links-Zeichen zu extrahieren. DANAg erweitert den Ansatz des R2L-Algorithmus, so dass eine Sprachunabhängigkeit erreicht wird. Die dritte Erweiterung, AdDANAg, integriert eine neue Vorverarbeitungsschritte, um u.a. die Weblinks zu normalisieren. Die vorgestellten Ansätze werden in Bezug auf Effizienz und Effektivität analysiert. Im Vergleich mit mehreren etablierten Hauptinhalt-Extraktions-Algorithmen zeigen wir, dass sie in diesen Punkten überlegen sind. Darüber hinaus findet die Extraktion der Überschriften aus Web-Artikeln vielfältige Anwendungen. Hierzu entwickeln wir mit TitleFinder einen sich nur auf den Textinhalt beziehenden und sprachabhängigen Ansatz. Das vorgestellte Verfahren ist in Bezug auf Effektivität und Effizienz besser als bekannte Ansätze, die auf strukturellen und visuellen Eigenschaften der HTML-Datei beruhen
Styles APA, Harvard, Vancouver, ISO, etc.
28

Jin, Chengzhou. « Discrete Cosine Transform for Pre-coded EGPRS ». Thesis, KTH, Signalbehandling, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-98761.

Texte intégral
Résumé :
Due to the rapid growth of wireless multimedia service, new features such as improved spectral efficiency, latency and increased peak throughput are standardized in the current GSM/EDGE system. Higher order modulations and symbol rates are defined in Enhanced General Packet Radio Service phase 2 (EGPRS2) to achieve better throughput. However, the computational complexity in the traditional receiver can be very high when increased modulation orders are applied; additionally, the system becomes more sensitive to the impairments at an increased symbol rate. It is therefore desirable to have a less complex and more robust demodulator. Recently, a new study item which introduces the multi-carrier technique was proposed in the 3rd Generation Partnership Project (3GPP) standardization. Based on the channel partitioning using the Discrete Fourier Transform (DFT), a simple equalizer can be used, which greatly reduces the computational complexity on receiver, meanwhile achieves good throughput and robustness against impairments. In this thesis, another channel partitioning method by means of the Discrete Cosine Transform (DCT) is studied. Transmitter and receiver algorithms are developed, including a pre-filter designed at the receiver to facilitate the channel diagonalization. The link level performance is evaluated by means of simulations, under different test scenarios. The system’s robustness against impairments and peak-to-average ratio (PAR) reduction are also evaluated, and compared with a system based on the DFT pre-coding. From the simulations, the conclusions can be drawn that in this implementation, the DFT precoded EGPRS2 outperforms the DCT pre-coded EGPRS2 in all scenarios. The DCT pre-coded system also shows worse robustness against impairments and higher peak-to-average ratio reduction loss in throughput. The impact of pre-filter design on the DCT pre-coded system has also been analyzed, and it shows that there is a tradeoff between achieving good symmetrization, and preserving channel information in the frequency domain.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Boudreau, Paul Jacques. « VLSI implementation of the integer cosine transform ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0005/MQ44898.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Chau, Ki-wai, et 周麒偉. « Fourier-cosine method for insurance risk theory ». Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2014. http://hdl.handle.net/10722/208586.

Texte intégral
Résumé :
In this thesis, a systematic study is carried out for effectively approximating Gerber-Shiu functions under L´evy subordinator models. It is a hardly touched topic in the recent literature and our approach is via the popular Fourier-cosine method. In theory, classical Gerber-Shiu functions can be expressed in terms of an infinite sum of convolutions, but its inherent complexity makes efficient computation almost impossible. In contrast, Fourier transforms of convolutions could be evaluated in a far simpler manner. Therefore, an efficient numerical method based on Fourier transform is pursued in this thesis for evaluating Gerber-Shiu functions. Fourier-cosine method is a numerical method based on Fourier transform and has been very popular in option pricing since its introduction. It then evolves into a number of extensions, and we here adopt its spirit to insurance risk theory. In this thesis, the proposed approximant of Gerber-Shiu functions under an L´evy subordinator model has O(n) computational complexity in comparison with that of O(n log n) via the usual numerical Fourier inversion. Also, for Gerber-Shiu functions within the proposed refined Sobolev space, an explicit error bound is given and error bound of this type is seemingly absent in the literature. Furthermore, the error bound for our estimation can be further enhanced under extra assumptions, which are not immediate from Fang and Oosterlee’s works. We also suggest a robust method on the estimation of ruin probabilities (one special class of Gerber-Shiu functions) based on the moments of both claim size and claim arrival distributions. Rearrangement inequality will also be adopted to amplify the use of our Fourier-cosine method in ruin probability, resulting in an effective global estimation. Finally, the effectiveness of our result will be further illustrated in a number of numerical studies and our enhanced error bound is apparently optimal in our demonstration; more precisely, empirical evidence exhibiting the biggest possible error convergence rate agrees with our theoretical conclusion.
published_or_final_version
Mathematics
Master
Master of Philosophy
Styles APA, Harvard, Vancouver, ISO, etc.
31

Aimer, Younes. « Étude des performances d'un système de communication sans fil à haut débit ». Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2269.

Texte intégral
Résumé :
La demande des usagers en termes de débit, de couverture et de qualité de service croît exponentiellement, avec une demande de plus en plus accrue en énergie électrique pour assurer les liaisons entre les réseaux. Dans ce contexte, les nouvelles formes d’ondes basées sur la modulation OFDM se sont répandues et sont utilisées dans les récentes architectures de radiocommunications. Cependant, ces signaux sont très sensibles aux non-linéarités des amplificateurs de puissance à cause des fortes fluctuations d’enveloppe caractérisées par un fort PAPR qui dégrade le bilan énergétique et le rendement de l’émetteur. Dans ce travail de thèse, nous avons tout d’abord dressé un état de l’art des techniques de réduction du PAPR. Cette présentation nous a permis de proposer une nouvelle méthodologie basée sur les techniques d’entrelacement et de codage. Cette première contribution consiste en l’utilisation de la technique d’entrelacement, en faisant appel aux sous porteuses nulles pour la transmission des informations auxiliaires, tout en respectant les spécifications fréquentielles du standard utilisé. La deuxième contribution est basée sur la combinaison des deux techniques de Shaping et de Transformée en Cosinus Discrète DCT, dans l’objectif d’améliorer davantage les performances du système. Les résultats de simulation ont montré que l’utilisation de ces deux techniques permet un gain significatif en termes de réduction du PAPR, qui se traduit par l’amélioration du rendement. Enfin, nous avons présenté une étude expérimentale pour l’ensemble des techniques proposées afin de confirmer les résultats obtenus en simulation. Ces évaluations sont réalisées avec un banc d'essais de radiocommunications pour le test d'un amplificateur de puissance commercial de technologie LDMOS de 20W, fonctionnant à 3.7 GHz en classe AB. Les résultats obtenus pour les standards IEEE 802.11 montrent que ces nouvelles approches permettent de garantir la robustesse de transmission, d’améliorer la qualité des liaisons et d’optimiser la consommation électrique
The request of the users in terms of rate, coverage and quality of service is growing exponentially, with increasing demand for electrical energy, to ensure networks link. In this context, new waveforms based on the OFDM modulation become widely popular and used intensively in recent radio communications architectures. However, these signals are sensitive to the power amplifier nonlinearities because of their high envelope fluctuations characterized by a high PAPR, which degrades the energy consumption and the transmitter efficiency.In this thesis, we first began by a state art of the PAPR reduction techniques. This presentation allowed us to propose a new method based on interleaving and coding techniques. The first contribution consists on the use of the interleaving technique using null-subcarriers for the transmission of the side information, while respecting the frequency specifications of the used standard. The second one is based on the conjunction of the Shaping technique and the Discrete Cosine Transform (DCT), with the aim of improving the performance of the system. Simulation results show that the use of these two techniques allows a significant gain in terms of PAPR reduction, which results in the improvement of the system efficiency. Finally, we presented an experimental study of the proposed techniques using an RF test bench with a commercial LDMOS 20 W PA, class AB operating at 3.7 GHz. The results obtained for the IEEE 802.11 standards show that the proposed approaches allow the transmission robustness and quality, while optimizing the power consumption
Styles APA, Harvard, Vancouver, ISO, etc.
32

Abedi, Safdar Ali Syed. « Exploring Discrete Cosine Transform for Multi-resolution Analysis ». Digital Archive @ GSU, 2005. http://digitalarchive.gsu.edu/cs_theses/12.

Texte intégral
Résumé :
Multi-resolution analysis has been a very popular technique in the recent years. Wavelets have been used extensively to perform multi resolution image expansion and analysis. DCT, however, has been used to compress image but not for multi resolution image analysis. This thesis is an attempt to explore the possibilities of using DCT for multi-resolution image analysis. Naive implementation of block DCT for multi-resolution expansion has many difficulties that lead to signal distortion. One of the main causes of distortion is the blocking artifacts that appear when reconstructing images transformed by DCT. The new algorithm is based on line DCT which eliminates the need for block processing. The line DCT is one dimensional array based on cascading the image rows and columns in one transform operation. Several images have been used to test the algorithm at various resolution levels. The reconstruction mean square error rate is used as an indication to the success of the method. The proposed algorithm has also been tested against the traditional block DCT.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Brown, Susan A. Presmeg Norma C. « The trigonometric connection students' understanding of sine and cosine / ». Normal, Ill. : Illinois State University, 2005. http://proquest.umi.com/pqdweb?index=0&did=1251811011&SrchMode=1&sid=2&Fmt=2&VInst=PROD&VType=PQD&RQT=309&VName=PQD&TS=1176384631&clientId=43838.

Texte intégral
Résumé :
Thesis (Ph. D.)--Illinois State University, 2005.
Title from title page screen, viewed April 12, 2007. Dissertation Committee: Norma C. Presmeg (chair), John A. Dossey, Michael J. Plantholt. Includes bibliographical references (leaves 253-261) and abstract. Also available in print.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Bishop, Carlton Delos. « Finite impulse response filter design using cosine series functions ». Doctoral diss., University of Central Florida, 1988. http://digital.library.ucf.edu/cdm/ref/collection/RTD/id/43377.

Texte intégral
Résumé :
University of Central Florida College of Engineering Thesis
Window functions have been extensively used for the design of SAW filters. The classical truncated cosine series functions, such as the Hamming and Blackmann functions, are only a few of an infinite set of such functions. The derivation of this set of functions from orthonormal basis sets and the criteria for obtaining the constant coefficients of the functions are presented. These functions are very useful because of the closed-form expressions and their easily recognizable Fourier transform. Another approach to the design of Gaussian shaped filters having a desired sidelobe level using a 40 term cosine series will be presented as well. This approach is again non-iterative and a near equi-ripple sidelobe level filter could be achieved. A deconvolution technique will also be presented. this has the advantage of being non-iterative, simple and fast. This design method produces results comparable to the Dolph-Chebyshev technique.
Ph.D.
Doctorate
Electrical Engineering and Communication
Engineering
Electrical Engineering
41 p.
vii, 41 leaves, bound : ill. ; 28 cm.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Scargall, Lee David. « Very low bit-rate digital video coding ». Thesis, University of Newcastle Upon Tyne, 1999. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.299046.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
36

Haque, S. M. Rafizul. « Singular Value Decomposition and Discrete Cosine Transform based Image Watermarking ». Thesis, Blekinge Tekniska Högskola, Avdelningen för för interaktion och systemdesign, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-5269.

Texte intégral
Résumé :
Rapid evolution of digital technology has improved the ease of access to digital information enabling reliable, faster and efficient storage, transfer and processing of digital data. It also leads to the consequence of making the illegal production and redistribution of digital media easy and undetectable. Hence, the risk of copyright violation of multimedia data has increased due to the enormous growth of computer networks that provides fast and error free transmission of any unauthorized duplicate and possibly manipulated copy of multimedia information. One possible solution may be to embed a secondary signal or pattern into the image that is not perceivable and is mixed so well with the original digital data that it is inseparable and remains unaffected against any kind of multimedia signal processing. This embedded secondary information is digital watermark which is, in general, a visible or invisible identification code that may contain some information about the intended recipient, the lawful owner or author of the original data, its copyright etc. in the form of textual data or image. In order to be effective for copyright protection, digital watermark must be robust which are difficult to remove from the object in which they are embedded despite a variety of possible attacks. Several types of watermarking algorithms have been developed so far each of which has its own advantages and limitations. Among these, recently Singular Value Decomposition (SVD) based watermarking algorithms have attracted researchers due to its simplicity and some attractive mathematical properties of SVD. Here a number of pure and hybrid SVD based watermarking schemes have been investigated and finally a RST invariant modified SVD and Discrete Cosine Transform (DCT) based algorithm has been developed. A preprocessing step before the watermark extraction has been proposed which makes the algorithm resilient to geometric attack i.e. RST attack. Performance of this watermarking scheme has been analyzed by evaluating the robustness of the algorithm against geometric attack including rotation, scaling, translation (RST) and some other attacks. Experimental results have been compared with existing algorithm which seems to be promising.
Phone number: +88041730212
Styles APA, Harvard, Vancouver, ISO, etc.
37

Chua, Doi-eng, et 蔡岱榮. « Some variations on Discrete-Cosine-Transform-based lossy image compression ». Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2000. http://hub.hku.hk/bib/B31222523.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
38

Deng, An-Te. « VHDL behavioral description of Discrete Cosine Transform in image compression ». Thesis, Monterey, California. Naval Postgraduate School, 1991. http://hdl.handle.net/10945/28641.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
39

Wang, Jiun-Lung, et 王俊隴. « EFFICIENT RECURSIVE STRUCTURES FOR DISCRETE COSINES TRANSFORMS ». Thesis, 1999. http://ndltd.ncl.edu.tw/handle/10490926827771364154.

Texte intégral
Résumé :
碩士
國立成功大學
電機工程學系
87
Discrete cosine transform (DCT) is widely used in video and image compression. In this thesis, we proposed two new recursive structures for computing DCT. This recursive structure is based on finite impulse response filter (IIR). One kind of them is the IIR form with fixed and selected filter coefficient. The advantage is that it only needs one filter module for computing all DCT components. The other kind is using several IIR structures for concurrent computing DCT components. The advantages are efficiency and high throughput rate. They are also suitable for VLSI implementation because of their regularity and modularity. In thesis, we contribute a VLSI realization with efficient recursion DCT algorithm. We use COMPASS 0.6μm high performance cell library for TSMC SPTM 0.6μm process technology. It integrates about 36k gates in a 4mm 4mm silicon area. The measurement result shows that this chip can operate at 29MHz clock rate.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Su, Yen-hao, et 蘇彥豪. « Trigonometry : Applications of Laws of Sines and Cosines ». Thesis, 2010. http://ndltd.ncl.edu.tw/handle/78232252177421734829.

Texte intégral
Résumé :
碩士
國立中山大學
應用數學系研究所
98
Chapter 1 presents the definitions and basic properties of trigonometric functions including: Sum Identities, Difference Identities, Product-Sum Identities and Sum-Product Identities. These formulas provide effective tools to solve the problems in trigonometry. Chapter 2 handles the most important two theorems in trigonometry: The laws of sines and cosines and show how they can be applied to derive many well known theorems including: Ptolemy’s theorem, Euler Triangle Formula, Ceva’s theorem, Menelaus’s Theorem, Parallelogram Law, Stewart’s theorem and Brahmagupta’s Formula. Moreover, the formulas of computing a triangle area like Heron’s formula and Pick’s theorem are also discussed. Chapter 3 deals with the method of superposition, inverse trigonometric functions, polar forms and De Moivre’s Theorem.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Tsai, Hsing-Juan, et 蔡幸娟. « A Parameterizable Architecture for Two-Dimensional Discrete Cosine Transform and Inverse Discrete Cosine Transform ». Thesis, 2005. http://ndltd.ncl.edu.tw/handle/66341916946119230484.

Texte intégral
Résumé :
碩士
逢甲大學
資訊工程所
93
The Discrete Cosine Transform (DCT) and Inverse Discrete Cosine Transforms (IDCT) are widely used in various audio and image processing applications. Because of the computation complexity of these algorithms, the dedicated hardware is usually required to achieve the performance of real-time applications. This thesis presents an efficient implementation of a two-dimensional DCT/IDCT processor using a serial-parallel systolic array architecture. The data transfer between processing elements is propagated serially in order to reduce the data communication cost. The data within the processing element is computed in a parallel manner to make the architecture high-speed. By carefully collocating the propagate data in the register of processing element, the transposition operation can be eliminated in this architecture. The block size of 2-D DCT/IDCT and the bit-width of computation data are extracted as parameters that can easily and systematically be adapted to conform to the various imaging coding standard. The behavior and structure model in C language is used to verify the correctness of the 2-D DCT/IDCT computation and the parameterizable implementation. The precision analysis of the 2-D DCT/IDCT implementation was performed by MatLab. The DCT design cost about 14K gate counts when block size is 8 and bit width is 6. The numbers of gate count increase 4 times when block size increases 2 times and those increase about 1.5 times when bit width increases 2 times.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Chung, Chao-yin, et 鐘昭胤. « Cosine Basis Wavelet Filter Desogn ». Thesis, 2005. http://ndltd.ncl.edu.tw/handle/91162384113851976339.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
43

Hwang, Jen-Jyh, et 黃仁志. « Digital Watermarking by Discrete Cosine Transform ». Thesis, 2010. http://ndltd.ncl.edu.tw/handle/99105407359663155102.

Texte intégral
Résumé :
碩士
世新大學
資訊管理學研究所(含碩專班)
98
With the rapid development and extensive use of multimedia and network technology, multimedia protection such as image, audio, video is an urgent issue. It has been widely concerned to view watermarking technology as a powerful tool for copyright protection and safety certification. The paper is based on watermarks hiding creation by Discrete Cosine Transform (DCT) to analyze the robustness of the watermarked images. By not affecting the visually indistinguishable, this research hopes to provide bigger help for the area of watermarks hiding and digital documents.
Styles APA, Harvard, Vancouver, ISO, etc.
44

TUNG, I.-CHIEN, et 董毅前. « Cosine transform coding of weighted images ». Thesis, 1992. http://ndltd.ncl.edu.tw/handle/87014671085181684424.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
45

Chang, Shih-Ju, et 張仕儒. « Topological Mixing for Cosine Operator Functions ». Thesis, 2014. http://ndltd.ncl.edu.tw/handle/26705178749146726724.

Texte intégral
Résumé :
碩士
國立臺中教育大學
數學教育學系
102
A bounded linear operator on a Banach space is called hypercyclic if there is a nonzero vector such that its orbit is dense in the space. Hypercyclicity is close related to a topological notion, topological transitivity. One can also consider transitivity or hypercyclicity for a sequence of operators. In this thesis, we obtain some new results for a sequence of operators which is topological transitive and mixing. Topological mixing is a stronger topological property than topological transitivity, and such a sequence of operators can be regarded as a cosine operator function. Some results in the thesis have been published in a joint paper in [6] with my supervisor. First, we study topological transitivity and hypercyclicity for bilateral weighted forward shifts on l^p(Z). Inspired by the work of Bonilla and Miana, in the second chapter, we consider a cosine operator function induced by a sequence of bounded operators, which is generated by an invertible weighted shift and its inverse. We characterize topologically mixing cosine operator functions in terms of weight. In particular, such a cosine operator function is mixing if, and only if, the weighted shift is mixing. By loosing the weight condition, the sucient condition for such a cosine operator function to be topologically transitive is given. We also provide some necessary conditions for transitive cosine operator functions. Moreover, by using the similar arguments in the main result, we recover the results of Salas, Costakis and Sambarino on the weighted shifts, which unies the proofs of transitivity and mixing for a single operator and a sequence of operators.
Styles APA, Harvard, Vancouver, ISO, etc.
46

SHI, MING-JI, et 施明吉. « L''-convergence of double cosine series ». Thesis, 1992. http://ndltd.ncl.edu.tw/handle/13512363816675534021.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
47

Chen, Chingson, et 陳慶勳. « Design and Implementation of Discrete Cosine Transform ». Thesis, 1995. http://ndltd.ncl.edu.tw/handle/38242894398568802620.

Texte intégral
Résumé :
碩士
國立交通大學
電子研究所
83
Discrete Cosine Transform (DCT) is now used in many communication standards for the removal of redundancies of correlation in random sequences. A random sequence with less correlation could be well compressed after quantisation and entropy coding. Since DCT and its inverse (IDCT) cost much computation power, the design of DCT or IDCT is important in overall system consideration. Traditionally, ROM-Based Distributed Arithmetic (DA) architecture has been used in many commercial systems. Since ROMs cost much area in ROM-Based DA, a new architecture named Adder-Based DA replacing ROMs with serial adders is proposed in this thesis. This new architecture cost much less area than traditionally ROM-Based DA since the ROMs are all replaced by small serial adders. An IDCT chip with 16 mm^2 core area by CCL CMOS standard cells is designed and implemented in this thesis and speed of 98 M pels/ sec is achieved in simulation of VERILOG.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Chen, Ming-Chuan, et 陳明娟. « Intergrability Of Cosine Series With Nonnegative Coefficients ». Thesis, 2000. http://ndltd.ncl.edu.tw/handle/76780048620875888416.

Texte intégral
Résumé :
碩士
國立清華大學
數學系
88
We consider the single cosine series with nonnegative coefficients. The estimates of the integral of the function phi of the single cosine series times x with power alpha-1 , alpha is areal number and phi belongs to delta(p,q) for p>1 and p no less then q greater then 0 .Our results generalize a result of Boas .
Styles APA, Harvard, Vancouver, ISO, etc.
49

Liu, Chun-Wen, et 劉仲文. « Adaptive Voltage Scaling for Discrete Cosine Transform ». Thesis, 2008. http://ndltd.ncl.edu.tw/handle/00937421266683497648.

Texte intégral
Résumé :
碩士
國立交通大學
電子工程系所
96
In the modern digital IC system, adaptive voltage scaling is the most efficient technology for low power design. A new variable voltage generator (VVG) has been proposed in this paper. Five voltage levels ranged from 0.8V to 1.2V can be generated. An adaptive voltage scaling controller has been developed to fit the VVG to form an adaptive voltage scaling control system. In stead of the off-chip DC-DC converter which is often used in voltage regulation, the on-chip VVG takes an important roll in this system. Discrete Cosine Transform (DCT) has become one of the widely used transform techniques in digital signal processing. The adaptive voltage scaling system has been applied to DCT and reduces at most 45% power consumption of DCT. All simulations are implemented in TSMC0.13-μm CMOS technology.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Tsai, Ya-Ting, et 蔡雅婷. « Object Detection with Integer Discrete Cosine Transform ». Thesis, 2012. http://ndltd.ncl.edu.tw/handle/40998194573150464909.

Texte intégral
Résumé :
碩士
中華大學
資訊工程學系碩士班
100
Multimedia technologies, including those for video- and image-related applications, are widely used in various fields, such as security surveillance, medical diagnosis, education, entertainment, and business presentations. Moving objects are of significant interest in surveillance applications. Therefore, detecting the moving objects and identifying their moving trajectories may provide useful information for assuring the security of the monitored site. However, many lighting conditions cause video cameras to record the shadows of moving objects in video images. To identify accurate moving trajectories, the shadows associated with moving objects need to be removed from the recorded video images. Otherwise, false alarm may be triggered, or miscalculation may result. In this thesis, we propose a real-time method for verifying a block belonging to a moving object block or a shadow block. The method includes the following phases. First, we simplify the DCT transformation to construct a novel integer DCT transformation. Second, based on the integer DCT transformed DC and AC coefficients, the background variations are modeled via the GMM probabilistic models. Third, by analyzing the respective variances of the DC and the AC coefficients we can determine the foreground as a moving object or a shadow region. Experimental results show that our method outperforms the conventional methods in terms of accuracy and efficiency.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie