To see the other types of publications on this topic, follow the link: Synthèse du contenu multimédia.

Dissertations / Theses on the topic 'Synthèse du contenu multimédia'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Synthèse du contenu multimédia.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Harrando, Ismail. "Representation, information extraction, and summarization for automatic multimedia understanding." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS097.

Full text
Abstract:
Que ce soit à la télévision ou sur internet, la production de contenu vidéo connaît un essor sans précédent. La vidéo est devenu non seulement le support dominant pour le divertissement, mais elle est également considérée comme l'avenir de l'éducation, l'information et le loisir. Néanmoins, le paradigme traditionnel de la gestion du multimédia s'avère incapable de suivre le rythme imposé par l'ampleur du volume de contenu créé chaque jour sur les différents canaux de distribution. Ainsi, les tâches de routine telles que l'archivage, l'édition, l'organisation et la recherche de contenu par les créateurs multimédias deviennent d'un coût prohibitif. Du côté de l'utilisateur, la quantité de contenu multimédia distribuée quotidiennement peut être écrasante ; le besoin d'un contenu plus court et plus personnalisé n'a jamais été aussi prononcé. Pour faire progresser l'état de l'art sur ces deux fronts, un certain niveau de compréhension du multimédia doit être atteint par nos ordinateurs. Dans cette thèse, nous proposons d'aborder les multiples défis auxquels sont confrontés le traitement et l'analyse automatique de contenu multimédia, en orientant notre exploration autour de trois axes : 1. la représentation: avec toute sa richesse et sa variété, la modélisation et la représentation du contenu multimédia peut être un défi en soi. 2. la description: La composante textuelle du multimédia peut être exploitée pour générer des descripteurs de haut niveau (annotation) pour le contenu en question. 3. le résumé: où nous étudions la possibilité d'extraire les moments d'intérêt de ce contenu, à la fois pour un résumé centré sur la narration et pour maximiser la mémorabilité
Whether on TV or on the internet, video content production is seeing an unprecedented rise. Not only is video the dominant medium for entertainment purposes, but it is also reckoned to be the future of education, information and leisure. Nevertheless, the traditional paradigm for multimedia management proves to be incapable of keeping pace with the scale brought about by the sheer volume of content created every day across the disparate distribution channels. Thus, routine tasks like archiving, editing, content organization and retrieval by multimedia creators become prohibitively costly. On the user side, too, the amount of multimedia content pumped daily can be simply overwhelming; the need for shorter and more personalized content has never been more pronounced. To advance the state of the art on both fronts, a certain level of multimedia understanding has to be achieved by our computers. In this research thesis, we aim to go about the multiple challenges facing automatic media content processing and analysis, mainly gearing our exploration to three axes: 1. Representing multimedia: With all its richness and variety, modeling and representing multimedia content can be a challenge in itself. 2. Describing multimedia: The textual component of multimedia can be capitalized on to generate high-level descriptors, or annotations, for the content at hand. 3. Summarizing multimedia: we investigate the possibility of extracting highlights from media content, both for narrative-focused summarization and for maximising memorability
APA, Harvard, Vancouver, ISO, and other styles
2

Turlier, Stéphane. "Accès et personnalisation du contenu multimédia dans un véhicule." Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00683823.

Full text
Abstract:
L'arrivée récente de plateformes véhiculaires connectées à internet permet la diffusion de contenus d'infodivertissement en flux poussés et tirés pour les conducteurs et les passagers en situation de mobilité d'une manière comparable aux appareils de communication nomades actuels. Toutefois, la voiture constitue un terminal d'accès très différent d'un téléphone portable que ce soit en termes de caractéristiques techniques, mais aussi en matière d'usages. Cette thèse aborde le sujet de la fourniture personnalisée du contenu multimédia pour les automobilistes. Une étude des caractéristiques techniques des plateformes d'infodivertissement, des types de contenus et de métadonnées nous permet dans un premier temps de cerner les contraintes d'une architecture de fourniture individualisée pour un véhicule. La mise en perspective de ces contraintes nous permet d'établir une architecture de fourniture de contenu à la demande, implémentée dans un prototype. Nous abordons ensuite le problème de la personnalisation suivant deux axes complémentaires : D'une part, la personnalisation active qui fait intervenir une interface homme machine multimodale que nous étudions dans le cadre spécifique d'un navigateur de bibliothèque musicale en ligne permettant de créer facilement des listes de lectures multicritères dans un véhicule ; et d'autre part, la personnalisation passive du contenu qui fait intervenir une modélisation du contexte de l'utilisateur. Nous discutons de la répartition de composants fonctionnels permettant cette personnalisation passive et construisons une architecture répartie prenant en compte la définition individualisée de préférences contextuelles et son intégration dans l'architecture multimédia présentée plus haut. Les différentes solutions proposées sont enfin évaluées selon des méthodes expérimentales faisant intervenir des utilisateurs et des méthodes dites expertes.
APA, Harvard, Vancouver, ISO, and other styles
3

Benoit, Huet. "Étude de Contenus Multimédia: Apporter du Contexte au Contenu." Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00744320.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Delannoy, Pierre. "Performances des réseaux pour la diffusion de contenu multimédia." Evry, Télécom & Management SudParis, 2008. http://www.theses.fr/2008TELE0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Turlier, Stéphane. "Accès et personnalisation de contenu multimédia à la demande dans un véhicule." Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00683823.

Full text
Abstract:
L'arrivée récente de plateformes automobiles connectées à internet permet la diffusion de contenus d'infodivertissement en flux poussés et tirés. Toutefois, la voiture constitue un terminal d'accès très différent d'un téléphone portable que ce soit en termes de caractéristiques techniques mais aussi en matière d'usages. Cette thèse aborde le sujet de la fourniture personnalisée du contenu multimédia pour les automobilistes. Une étude des caractéristiques techniques des plateformes d'infodivertissement, des types de contenus et de métadonnées nous permet dans un premier temps de cerner les contraintes d'une architecture de fourniture individualisée pour un véhicule. La mise en perspective de ces contraintes nous permet d'établir une architecture de fourniture de contenu à la demande, implémentée dans un prototype. Nous abordons ensuite le problème de la personnalisation suivant deux axes complémentaires : d'une part, la personnalisation active qui fait intervenir une interface homme machine multimodale que nous étudions dans le cadre spécifique d'un navigateur de bibliothèque musicale en ligne permettant de créer facilement des listes de lecture multicritères dans un véhicule ; et d'autre part, la personnalisation passive du contenu qui fait intervenir une modélisation du contexte de l'utilisateur. Nous discutons de la répartition de composants fonctionnels permettant cette personnalisation passive et construisons et évaluons une architecture répartie prenant en compte la définition individualisée de préférences contextuelles et son intégration dans l'architecture multimédia présentée plus haut
The recent advent of connected vehicle platforms permits the distribution of infotainment assets to drivers and passengers with pulled and pushed workflows in a comparable manner to current mobile handsets. However, vehicles differ technically from mobile phones in terms of capability and in terms of usage. This thesis tackles the subject of personalised media delivery to motorists. We first study the technical characteristics of vehicle infotainment platforms, media assets and metadata in order to identify the requirements of a media delivery architecture for a vehicle. Based on those constraints, we have specified a media on-demand framework, which has been developed in a prototype. Afterwards, we tackle the topic of personalisation in light of two complementary point of views : on the one hand, the driver can process active personalisation when using a proper human machine interface. We present a music browser for online libraries that allows the creation of multicriteria playlists while driving. On the other hand, we analyse passive personalisation, which makes use of the driving context. We discuss the repartition of the functional components and build up a distributed architecture, which takes into account individual context preferences and their integration in the multimedia architecture that we have formerly presented. Eventually, the different solutions are evaluated according to experimental and expert methods
APA, Harvard, Vancouver, ISO, and other styles
6

Kimiaei, Asadi Mariam. "Adaptation de Contenu Multimédia avec MPEG-21: Conversion de Ressources et Adaptation Sémantique de Scènes." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001615.

Full text
Abstract:
L'objectif de la thèse de doctorat présentée dans ce mémoire est de proposer des techniques et des méthodologies nouvelles, simples et efficaces pour l'adaptation de contenu multimédia à diverses contraintes de contexte d'utilisation. Le travail est basé sur des parties de la norme MPEG-21 en cours de définition, qui vise à définir les différents composants d'un système de distribution de contenus multimédia. Le travail de cette thèse est divisé en deux parties principales: l'adaptation de médias uniques, et l'adaptation sémantique de documents multimédia composés. Dans l'adaptation de médias uniques, le média est adapté aux contraintes du contexte de consommation, telles que les capacités du terminal, les préférences de l'utilisateur, les capacités du réseau, les recommandations de l'auteur, etc... Dans cette forme d'adaptation, le média est considéré hors de tout contexte de présentation multimédia structurée, ou indépendamment de la composition multimédia (scène) dans laquelle il est utilisé. Nous avons défini des outils et descripteurs, étendant les outils et descripteurs MPEG-21 DIA, pour la description des suggestions d'adaptation de médias (également appelée Conversion de Ressource), et la description des paramètres correspondants. Nous avons réalisé un moteur d'adaptation de médias qui fonctionne selon ces suggestions ainsi que selon les contraintes du contexte, et qui applique au media, la forme la plus appropriée d'adaptation avec des valeurs optimales des paramètres d'adaptation, afin d'obtenir la meilleure qualité d'utilisation. Durant cette partie du travail, nous avons apporté plusieurs contributions à la norme MPEG-21 DIA. Dans l'adaptation sémantique de documents multimédia structurés, nous avons considéré l'adaptation selon les relations temporelles, spatiales et sémantiques entre les objets média de la scène. En adaptant une présentation multimédia afin de préserver l'uniformité et la logique de la scène adaptée, le processus d'adaptation doit avoir accès à l'information sémantique de la présentation. Nous avons défini un langage d'extension de la description de scène pour l'expression de cette information sémantique, à base de descripteurs. Ces descripteurs contiennent des informations fournies par l'auteur de la scène multimédia, ou par n'importe quelle autre entité dans la chaîne de livraison multimédia. L'information incluse dans ces descripteurs aide le moteur d'adaptation à décider de la forme et de la nature optimales des adaptations qui doivent être appliquées au document. Cette information consiste en une information sémantique indépendante de chaque objet média, les dépendances sémantiques entre les objets média de la scène et les préférences sémantiques sur la fragmentation de scène. Pour la réalisation d'un tel système d'adaptation, nous avons utilisé SMIL 2.0 pour décrire nos scènes multimédia. Cependant, la méthodologie est indépendante de ce choix et peut être appliquée à d'autres types de documents multimédia, tels que MPEG-4 XMT. Nous avons implémenté un moteur d'adaptation sémantique expérimental, qui manipule et adapte des documents SMIL, en utilisant les informations sémantiques et physiques du contenu, ainsi que des contraintes de contexte.
APA, Harvard, Vancouver, ISO, and other styles
7

Benmokhtar, Rachid. "Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005321.

Full text
Abstract:
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences.
APA, Harvard, Vancouver, ISO, and other styles
8

Hamroun, Mohamed. "Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédia." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0372.

Full text
Abstract:
Suite aux derniers progrès technologiques, la quantité de données multimédias ne cesse d'augmenter. Dans ce contexte, le problème qui se pose est comment exploiter efficacement ces données ? il est nécessaire de mettre en place des outils facilitant leur accès et leur manipulation.Pour répondre à ces besoins, nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur "PMC" et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA).Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG.Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions.Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image
Due to the latest technological advances, the amount of multimedia data is constantly increasing. In this context, the problem is how to effectively use this data? it is necessary to set up tools to facilitate its access and manipulation.To achieve this goal, we first propose an indexation and retrieval model for video shots (or images) by their visual content (ISE). The innovative features of ISE are as follows: (i) definition of a new descriptor "PMC" and (ii) application of the genetic algorithm (GA) to improve the retrieval (PMGA).Then, we focus on the detection of concepts in video shots (LAMIRA approach). In the same context, we propose a semi-automatic annotation method for video shots in order to improve the quality of indexation based on the GA.Then, we provide a semantic indexation method separating the data level from a conceptual level and a more abstract, contextual level. This new system also incorporates mechanisms for expanding the request and relevance feedback. To add more fluidity to the user query, the user can perform a navigation using the three levels of abstraction. Two systems called VISEN and VINAS have been set up to validate these last positions.Finally, a SIRI Framework was proposed on the basis of a multi-level indexation combining our 3 systems: ISE, VINAS and VISEN. This Framework provides a two-dimensional representation of features (high level and low level) for each image
APA, Harvard, Vancouver, ISO, and other styles
9

Moinard, Matthieu. "Codage vidéo hybride basé contenu par analyse/synthèse de données." Phd thesis, Telecom ParisTech, 2011. http://tel.archives-ouvertes.fr/tel-00830924.

Full text
Abstract:
Les travaux de cette thèse sont destinés à la conception d'outils algorithmiques permettant d'accroître le facteur de compression des standards actuels de codage vidéo, tels que H.264/AVC. Pour cela, une étude préalable portant sur un ensemble de méthodes de restauration d'image a permis d'identifier et d'inspecter deux axes de recherche distincts. La première partie est fondée sur des méthodes d'analyse et de synthèse de texture. Ce type de procédé, aussi connu sous le nom de template matching, est couramment utilisé dans un contexte de codage vidéo pour prédire une portion de la texture de l'image suite à l'analyse de son voisinage. Nous avons cherché à améliorer le modèle de prédiction en prenant en compte les spécificités d'un codeur vidéo de type H.264/AVC. En particulier, la fonction débit/distorsion utilisée dans les schémas de codage vidéo normatifs se base sur une mesure objective de la qualité. Ce mécanisme est par nature incompatible avec le concept de synthèse de texture, dont l'efficacité est habituellement mesurée selon des critères purement perceptuels. Cette contradiction a motivé le travail de notre première contribution. La deuxième partie des travaux de cette thèse s'inspire des méthodes de régularisation d'image basée sur la minimisation de la variation totale. Des méthodes ont été élaborées originellement dans le but d'améliorer la qualité d'une image en fonction de la connaissance a priori des dégradations qu'elle a subies. Nous nous sommes basés sur ces travaux pour concevoir un modèle de prédiction des coefficients transformés obtenus à partir d'une image naturelle, qui a été intégré dans un schéma de codage vidéo conventionnel.
APA, Harvard, Vancouver, ISO, and other styles
10

Harb, Hadi. "Classification du signal sonore en vue d'une indexation par le contenu des documents multimédia." Ecully, Ecole centrale de Lyon, 2003. http://bibli.ec-lyon.fr/exl-doc/hharb.pdf.

Full text
Abstract:
Les humains ont une aptitude remarquable de classifier les signaux sonores en des classes : musique, parole, applaudissement, explosion, etc. . . Face à une profusion de documents multimédias, nous proposons dans cette thèse de développer des machines de perception auditive automatiques dotées des capacités de classification sonore similaires à celles des humains. Nous suivons une approche inspirée par quelques études sur la perception humaine des classes sémantiques sonores du contexte de multimédia et nous proposons ainsi un modèle de mémoire sonore qui est à la base d'un espace de représentation du signal, nommé espace MGI (Modélisation Gaussienne Incrémentale). Un comité de réseaux de neurones est couplé à l'espace MGI afin de constituer un système de classification du signal sonore. Ce système a permis efficacement la classification en musique/parole, homme/femme, action/non-action, genre de musique, ainsi qu'une structuration des vidéos en des "scène sonores"
Humans have a remarkable ability to categorise audio signals into classes, such as speech, music, explosion, etc. . . The thesis studies the capacity of developing audio classification algorithms inspired by the human perception of the audio semantic classes in the multimedia context. A model of short therm auditory memory is proposed in order to explain some psychoacoustic effects. The memory model is then simplified to constitute the basis of the Piecewise Gaussian Modelling (PGM) features. The PGM features are coupled to a mixture of neural networks to form a general audio signal classifier. The classifier was successfully applied to speech/music classification, gender identification, action detection and musical genre recognition. A synthesis of the classification effort was used in order to structure a video into "audio scenes" and "audio chapters". This work has permitted the development of an autoamtic audio indexer prototype, CYNDI
APA, Harvard, Vancouver, ISO, and other styles
11

Layaïda, Nabil. "Représentation et analyses de contenu et de programmes Web." Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00872752.

Full text
Abstract:
Aujourd'hui, les contenus et les applications Web sont devenus la principale interface pour effectuer toutes sortes de tâches de la vie quotidienne comme déclarer et payer les impôts, réserver des billets d'avion ou de train, planifier des vacances, effectuer des achats, gérer les comptes bancaires, etc. En conséquence, il devient de plus en plus important d'étudier leurs fondements, d'améliorer leurs capacités, de faciliter leur conception, de vérifier leur fonctionnement, de les optimiser automatiquement et les rendre plus souples et adaptables aux usages et aux différentes plateformes. Dans ce document, nous décrivons d'abord mes activités professionnelles, concernant les années 1998 à 2012. La première partie de ce document contient un résumé de mes activités de recherche, d'encadrement, d'enseignement et charges administrative et collective, ainsi qu'un résumé de mes principaux résultats scientifiques. Dans le reste du document, nous introduisons une logique de raisonnement sur les arbres finis, une procédure de décision correcte et complète pour vérifier la satisfaisabilité d'une formule de la logique ainsi que d'une mise en œuvre efficace en pratique. La logique est une variante du mu-calcul adaptée aux arbres finis et équipée avec des modalités arrières et des nominaux. Ensuite, nous considérons le problème de l'évolution des schémas XML. Dans le contexte en constante évolution du Web, les schémas XML changent continuellement afin de faire face à l'évolution naturelle des entités qu'ils décrivent. Les modifications de schémas peuvent avoir des conséquences importantes dans la mesure où les documents existants peuvent devenir invalides et la programmes les manipulant incorrectes. Nous proposons un cadre unificateur pour déterminer les effets de l'évolution des schémas XML à la fois sur la validité des documents et des requêtes contenues dans ces programmes. Dans la dernière partie du document, nous considérons une algèbre de type équipée de la récursivité, du produit cartésien, des fonctions, de l'intersection, de l'union, et du complément ainsi que des variables de type et une quantification universelle implicite sur ces variables. Nous considérons la relation de sous-typage récemment définie par Castagna et Xu sur des expressions de cette algèbre de type et montrons que le sous-typage peut être décidé avec une complexité EXPTIME et implémenté efficacement en pratique clôturant ainsi à une question ouverte dans la littérature.
APA, Harvard, Vancouver, ISO, and other styles
12

Pleşca, Cezar. "Supervision de contenus multimédia : adaptation de contenu, politiques optimales de préchargement et coordination causale de flux." Toulouse, INPT, 2007. http://ethesis.inp-toulouse.fr/archive/00000499/.

Full text
Abstract:
La qualité des systèmes d'informations distribués dépend de la réactivité du service, de la pertinence et de la cohérence des informations présentées vis-à-vis des centres d'intérêt de l'utilisateur. Dans un premier volet, nous améliorons la délivrance de contenus hypermédia et utilisons des modèles décisionnels markoviens 'PDM) pour dériver des politiques de préchargement agressives optimales intégrant les habitudes des utilisateurs et les ressources disponibles. Dans le deuxième volet, consacré aux contextes partiellement observables, nous montrons qu'une politique d'adapatation à des ressources limitées (modèle PDM) peut être nuancée selon l'intérêt des utilisateurs, en utilisant un PDM partiellement observable (PDMPO). Le troisième volet concerne le contexte des applications multimédia interactives réparties. Nous proposons un service de cohérence flexible capable de gérer plusieurs ordres partiels (fifo, causal, total) et montrons de meilleures performances par rapport à la causalité classique ou la [delta]-causalité
Distributed systems information quality depends on service responsiveness, data consistency and its relevance according to user interests. The first part of this study deals with hypermedia content delivery and uses Markov Decision Processes (MDP) to derive aggresive optimal prefetching policies integrating both users habits and ressource availability. The second part addresses the partial observable contexts. We show how a ressource-based policy adaptation (MDP model) can be modulated according to user interest, using partially observable MDP (POMDP). Finally, the third part is placed in distributed multimedia applications context. We propose a coordination-level middleware for supporting flexible consistency. Our simulations show that its ability to handle several partial orders (e. G. Fifo, causal, total) makes it better than classic or [delta)-causality
APA, Harvard, Vancouver, ISO, and other styles
13

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0014/document.

Full text
Abstract:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
APA, Harvard, Vancouver, ISO, and other styles
14

Ben, Abdelali Abdessalem. "Etude de la conception d’architectures matérielles dédiées pour les traitements multimédia : indexation de la vidéo par le contenu." Dijon, 2007. http://www.theses.fr/2007DIJOS075.

Full text
Abstract:
Cette thèse constitue une contribution à l’étude de l’indexation automatique de la vidéo par le contenu en vue de la conception d’architectures matérielles dédiées à ce type d’application multimédia. L’indexation de la vidéo par le contenu présente un domaine de grande importance et qui est sans cesse en développement pour différents types d’applications telles que l’Internet, la TV interactive, les supports vidéo portables (PVR) et les applications de sécurité. L’étude proposée est effectuée à travers des exemples concrets de techniques d’analyse du contenu AV pour l’indexation de la vidéo et selon différents aspects applicatifs, technologiques et méthodologiques. Elle s’inscrit dans le cadre de la conception d’architectures matérielles dédiées et de l’exploitation des nouvelles technologies de systèmes embarqués pour les applications multimédia récentes. Un intérêt particulier est consacré à la technologie reconfigurable et aux nouvelles possibilités et moyens d’utilisation des circuits FPGA. La première phase de cette thèse a été consacrée à l’étude du domaine de l’indexation automatique de la vidéo par le contenu. Il s’agit de l’étude des caractéristiques et des nouveaux besoins des systèmes d’indexation au travers des approches et des techniques actuellement utilisées ainsi que les champs d’application des nouvelles générations de ces systèmes. Ceci afin de montrer l’intérêt d’avoir recours à de nouvelles architectures et à de nouvelles solutions technologiques permettant de supporter les exigences de ce domaine. La deuxième phase de ce travail a été réservée à la validation et à l’optimisation d’un ensemble de descripteurs visuels de la norme MPEG-7 pour la segmentation temporelle de la vidéo. Ceci constitue une étude de cas par l’étude d’un exemple important de techniques d’analyse du contenu AV utilisées dans une grande diversité d’applications. L’étude proposée constitue également une étape de préparation à l’implémentation matérielle de ces techniques dans le contexte de conception d’accélérateurs matériels pour l’indexation automatique de la vidéo par le contenu en temps réel. Dans ce cadre différentes transformations algorithmiques ont été proposées dans le but d’assurer une meilleure Adéquation Algorithme Architecture (AAA) et d’améliorer les performances des algorithmes étudiés. La troisième phase de ce travail a été consacrée à l’étude de la conception d’opérateurs matériels dédiés pour les techniques d’analyse du contenu AV ainsi qu’à l’étude de l’exploitation des nouvelles technologies des systèmes reconfigurables pour la mise en œuvre de SORC pour l’indexation automatique de la vidéo. Plusieurs architectures matérielles ont été proposées pour les descripteurs étudiés et différents concepts liés à l’exploitation de la technologie reconfigurable et les SORC ont été explorés (méthodologies et outils associés pour la conception de tels systèmes sur puce, technologie et méthodes pour la reconfiguration dynamique et partielle, plateformes matérielles à base d’FPGA, structure d’un SORC pour l’indexation de la vidéo par le contenu, etc. )
This thesis constitutes a contribution to the study of content based automatic video indexing aiming at designing hardware architectures dedicated to this type of multimedia application. The content based video indexing represents an important domain that is in constant development for different types of applications such as the Internet, the interactive TV, the personal video recorders (PVR) and the security applications. The proposed study is done through concrete AV analysis techniques for video indexing and it is carried out according to different aspects related to application, technology and methodology. It is included in the context of dedicated hardware architectures design and exploitation of the new embedded systems technologies for the recent multimedia applications. Much more interest is given to the reconfigurable technology and to the new possibilities and means of the FPGA devices utilization. The first stage of this thesis is devoted to the study of the automatic content based video indexing domain. It is about the study of features and the new needs of indexing systems through the approaches and techniques currently used as well as the application fields of the new generations of these systems. This is in order to show the interest of using new architectures and technological solutions permitting to support the new requirements of this domain. The second stage is dedicated to the validation and the optimization of some visual descriptors of the MPEG-7 standard for the video temporal segmentation. This constitutes a case study through an important example of AV content analysis techniques. The proposed study constitutes also a stage of preparation for the hardware implementation of these techniques in the context of hardware accelerators design for real time automatic video indexing. Different Algorithm Architecture Adequacy aspects have been studied through the proposition of various algorithmic transformations that can be applied for the considered algorithms. The third stage of this thesis is devoted to study the design of dedicated hardware operators for video content analysis techniques as well as the exploitation of the new reconfigurable systems technologies for designing SORC dedicated to the automatic video indexing. Several hardware architectures have been proposed for the MPEG-7 descriptors and different concepts related to the exploitation of reconfigurable technology and SORC have been studied as well (methodologies and tools for designing such systems on chip, technology and methods for the dynamic and partial reconfiguration, FPGA based hardware platforms, SORC structure for video indexing, etc. )
APA, Harvard, Vancouver, ISO, and other styles
15

Hinard, Yoann. "Sécurisation et tarification de la diffusion de contenu en multicast." Compiègne, 2008. http://www.theses.fr/2008COMP1766.

Full text
Abstract:
IP multicast constitue une solution efficace pour transmettre des flux vidéo à un ensemble de récepteurs. Technologie maintenant indispensable dans les réseaux privés et cloisonnés comme ceux des opérateurs, IP multicast ne dispose pas d'un déploiement à grande échelle sur le réseau ouvert Internet. Dans cette thèse, nous traitons deux problèmes limitant le déploiement du multicast à grande échelle : la possibilité d'effectuer une tarification et contrôle d'accès, et la possibilité de sécuriser le contenu tout en étant tolérant aux pertes de paquets. Ainsi, nous proposons une architecture sécurisée de tarification pour la diffusion de contenus en multicast. Nous proposons aussi un schéma de chaînage de hash-code per-mettant d'amortir la surcharge d'une signature numérique sur un grand nombre de paquets et ainsi assurer l'authentification et la non répudiation de la source des données même en présence de pertes de paquets Importantes
IP multicast is an effective way to distribute vidéo content to large group of receivers. This technology is now widely used in the closed and private networks of the telecoms operators. However, IP multicast is not widely deployed over the Internet which is by nature an open network. In this thesis, we deal with two issues preventing wide deployment of IP multicast : ability to perform accounting and access control, and ability to secure the content distributed to large groups. We define a generic Authentication, Authorization and Accounting architecture for multicast content distribution which is based on the Diameter base protocol standardized by the IETF. We also define a new hash-code chaining scheme which allow to amortize the overhead of a digital signature on many other packets. This scheme allows data origin authentication and non-repudiation even with high packet loss ratio
APA, Harvard, Vancouver, ISO, and other styles
16

Cabral, Marcio. "Remodelage et Re-eclairage Pour La Création et Manipulation de Contenu Interactif." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-01062521.

Full text
Abstract:
Remodelage et Ré-éclairage Pour La Création et Manipulation de Contenu Interactif Resumé Ces dernières années, les outils et techniques d'infographie sont devenus accessibles à un public plus large, permettant á des non-spécialistes de créer du contenu numérique 2D ou 3D par eux-mêmes. Cependant, la plupart des utilisateurs n'ont pas les compétences nécessaires pour créer du contenu qui soit à la fois esthétique et utile. Dans cette thèse, nous proposons de combler cette lacune en fournissant des outils qui peuvent être employés par des utilisateurs non-experts pour aider dans la création de contenu numérique pour des mondes virtuels. Nous examinons d'abord la complexité des outils de modélisation 3D actuels, qui sont conçus pour des utilisateurs expérimentés. Notre approche permet aux utilisa- teurs de simplement déplacer les sommets d'un modèle architectural pour effectuer les changements souhaités, tout en adaptant les textures du modèle. Nous avons posé le problème comme un système d'équations linéaires représentant la structure du modèle 3D. A l'exécution, les équations sont résolues selon la méthode des moindres carrés, per- mettant à l'utilisateur de modifier le modèle 3D tout en préservant la forme générale et la texture. Nous adaptons ensuite cette approche à un environnement virtuel 3D immersif. L'utilisateur peut interagir avec le système de modélisation en utilisant des gestes, étant immergé dans un système de projection avec 4 murs. Nous étendons notre approche avec des capacités d'éclairage basiques, permettant à l'utilisateur de changer le jour de l'année et l'heure pour visualiser la distribution de la lumière à l'intérieur du modèle architectural. La dernière partie de cette thèse présente une solution qui permet aux utilisateurs de modifier l'éclairage d'une photo d'un arbre. Nous adoptons une approche de rendu volumique à un rebond pour estimer la répartition de la lumière dans le feuillage des arbres. Avec quelques photos prises à un seul moment de la journée comme entrée, notre solution permet à l'utilisateur de changer l'heure de la journée à laquelle la photo d'origine à été prise, et ce avec un éclairage cohérent.
APA, Harvard, Vancouver, ISO, and other styles
17

Delezoide, Bertrand. "Modèles d'indéxation multimédia pour la description automatique de films de cinéma." Paris 6, 2006. http://www.theses.fr/2006PA066108.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Papadopoulos, Hélène. "Estimation conjointe d'information de contenu musical d'un signal audio." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00548952.

Full text
Abstract:
Depuis quelques années, nous assistons à l'augmentation croissante de gigantesques collections de musique en ligne. Ce phénomène a attiré l'attention de nombreux chercheurs. En effet, le besoin urgent de développer des outils et des méthodes qui permettent d'interagir avec ces énormes bibliothèques de musique numérique pose des défis scientifiques complexes. Le domaine de la recherche d'information musicale (Music Information Retrieval, MIR) est ainsi devenu très actif depuis une dizaine d'années. Ce domaine général inclut celui de l'indexation musicale dans lequel s'inscrit cette thèse qui a pour but d'aider au stockage, à la diffusion et la consultation des gigantesques collections de musique en ligne. Ce domaine ouvre de nombreuses perspectives pour l'industrie et la recherche liées aux activités multimédia. Dans cette thèse, nous nous intéressons au problème de l'extraction automatique d'informations de contenu d'un signal audio de musique. La plupart des travaux existants abordent ce problème en considérant les attributs musicaux de manière indépendante les uns vis-à-vis des autres. Cependant les morceaux de musique sont extrèmement structurés du point de vue de l'harmonie et du rythme et leur estimation devrait se faire en tenant compte du contexte musical, comme le fait un musicien lorsqu'il analyse un morceau de musique. Nous nous concentrons sur trois descripteurs musicaux liés aux structures harmoniques, métriques et tonales d'un morceau de musique. Plus précisément, nous cherchons à en estimer la progression des accords, les premiers temps et la tonalité. L'originalité de notre travail consiste à construire un modèle qui permet d'estimer de manière conjointe ces trois attributs musicaux. Notre objectif est de montrer que l'estimation des divers descripteurs musicaux est meilleure si on tient compte de leurs dépendances mutuelles que si on les estime de manière indépendante. Nous proposons au cours de ce travail un ensemble de protocoles de comparaison, de métriques de performances et de nouvelles bases de données de test afin de pouvoir évaluer les différentes méthodes étudiées. Afin de valider notre approche, nous présentons également les résultats de nos participations à des campagnes d'évaluation internationales. Dans un premier temps, nous examinons plusieurs représentations typiques du signal audio afin de choisir celle qui est la plus appropriée à l'analyse du contenu harmonique d'un morceau de musique. Nous explorons plusieurs méthodes qui permettent d'extraire un chromagram du signal et les comparons à travers un protocole d'évaluation original et une nouvelle base de données que nous avons annotée. Nous détaillons et expliquons les raisons qui nous ont amenés à choisir la représentation que nous utilisons dans notre modèle. Dans notre modèle, les accords sont considérés comme un attribut central autour duquel les autres descripteurs musicaux s'organisent. Nous étudions le problème de l'estimation automatique de la suite des accords d'un morceau de musique audio en utilisant les _chromas_ comme observations du signal. Nous proposons plusieurs méthodes basées sur les modèles de Markov cachés (hidden Markov models, HMM), qui permettent de prendre en compte des éléments de la théorie musicale, le résultat d'expériences cognitives sur la perception de la tonalité et l'effet des harmoniques des notes de musique. Les différentes méthodes sont évaluées et comparées pour la première fois sur une grande base de données composée de morceaux de musique populaire. Nous présentons ensuite une nouvelle approche qui permet d'estimer de manière simultanée la progression des accords et les premiers temps d'un signal audio de musique. Pour cela, nous proposons une topologie spécifique de HMM qui nous permet de modéliser la dépendance des accords par rapport à la structure métrique d'un morceau. Une importante contribution est que notre modèle peut être utilisé pour des structures métriques complexes présentant par exemple l'insertion ou l'omission d'un temps, ou des changements dans la signature rythmique. Le modèle proposé est évalué sur un grand nombre de morceaux de musique populaire qui présentent des structures métriques variées. Nous comparons les résultats d'un modèle semi-automatique, dans lequel nous utilisons les positions des temps annotées manuellement, avec ceux obtenus par un modèle entièrement automatique où la position des temps est estimée directement à partir du signal. Enfin, nous nous penchons sur la question de la tonalité. Nous commençons par nous intéresser au problème de l'estimation de la tonalité principale d'un morceau de musique. Nous étendons le modèle présenté ci-dessus à un modèle qui permet d'estimer simultanément la progression des accords, les premiers temps et la tonalité principale. Les performances du modèle sont évaluées à travers des exemples choisis dans la musique populaire. Nous nous tournons ensuite vers le problème plus complexe de l'estimation de la tonalité locale d'un morceau de musique. Nous proposons d'aborder ce problème en combinant et en étendant plusieurs approches existantes pour l'estimation de la tonalité principale. La spécificité de notre approche est que nous considérons la dépendance de la tonalité locale par rapport aux structures harmonique et métrique. Nous évaluons les résultats de notre modèle sur une base de données originale composée de morceaux de musique classique que nous avons annotés.
APA, Harvard, Vancouver, ISO, and other styles
19

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0014.

Full text
Abstract:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
APA, Harvard, Vancouver, ISO, and other styles
20

Badr, Mehdi. "Traitement de requêtes top-k multicritères et application à la recherche par le contenu dans les bases de données multimédia." Phd thesis, Université de Cergy Pontoise, 2013. http://tel.archives-ouvertes.fr/tel-00978770.

Full text
Abstract:
Le développement des techniques de traitement des requêtes de classement est un axe de recherche très actif dans le domaine de la recherche d'information. Plusieurs applications nécessitent le traitement des requêtes de classement multicritères, telles que les méta-moteurs de recherche sur le web, la recherche dans les réseaux sociaux, la recherche dans les bases de documents multimédia, etc. Contrairement aux requêtes booléennes traditionnelles, dans lesquelles le filtrage est basé sur des prédicats qui retournent vrai ou faux, les requêtes de classement utilisent des prédicats de similarité retournant un score de pertinence. Ces requêtes spécifient une fonction d'agrégation qui combine les scores individuels produits par les prédicats de similarité permettant de calculer un score global pour chaque objet. Les k objets avec les meilleurs scores globaux sont retournés dans le résultat final. Dans cette thèse, nous étudions dans un premier temps les techniques et algorithmes proposés dans la littérature conçus pour le traitement des requêtes top-k multicritères dans des contextes spécifiques de type et de coût d'accès aux scores, et nous proposons un cadre générique capable d'exprimer tous ces algorithmes. Ensuite, nous proposons une nouvelle stratégie en largeur "breadth-first", qui maintient l'ensemble courant des k meilleurs objets comme un tout, à la différence des stratégies en profondeur habituelles qui se focalisent sur le meilleur candidat. Nous présentons un nouvel algorithme "Breadth-Refine" (BR), basé sur cette stratégie et adaptable à n'importe quelle configuration de type et de coût d'accès aux scores. Nous montrons expérimentalement la supériorité de l'algorithme BR sur les algorithmes existants. Dans un deuxième temps, nous proposons une adaptation des algorithmes top-k à la recherche approximative, dont l'objectif est de trouver un compromis entre le temps de recherche et la qualité du résultat retourné. Nous explorons l'approximation par arrêt prématuré de l'exécution et proposons une première étude expérimentale du potentiel d'approximation des algorithmes top-k. Dans la dernière partie de la thèse, nous nous intéressons à l'application des techniques top-k multicritères à la recherche par le contenu dans les grandes bases de données multimédia. Dans ce contexte, un objet multimédia (une image par exemple) est représenté par un ou plusieurs descripteurs, en général sous forme de vecteurs numériques qui peuvent être vus comme des points dans un espace multidimensionnel. Nous explorons la recherche des k plus proches voisins (k-ppv) dans ces espaces et proposons une nouvelle technique de recherche k-ppv approximative "Multi-criteria Search Algorithm " (MSA) basée sur les principes des algorithmes top-k. Nous comparons MSA à des méthodes de l'état de l'art dans le contexte des grandes bases multimédia où les données ainsi que les structures d'index sont stockées sur disque, et montrons qu'il produit rapidement un très bon résultat approximatif.
APA, Harvard, Vancouver, ISO, and other styles
21

Jamin, Emmanuel. "La conception de documents audiovisuels : vers l'extraction sémantique et la réécriture interactive des archives multimédias." Paris 11, 2006. http://www.theses.fr/2006PA112215.

Full text
Abstract:
"La numérisation du document audiovisuel (DAV) améliore les techniques de stockage, ce qui potentialise des usages innovants d'exploitation du DAV. Notre objectif consiste donc à outiller les activités d'écriture audiovisuelle basées sur la réutilisation de fragments de vidéos. Suite à une analyse des pratiques documentaires, nous avons formalisé la tâche d'"écrilecture multimédia" en adaptant les modèles cognitifs de la production écrite. Cette tâche met en jeu le concepteur et le lecteur dans un double agencement narratif/discursif, où chacun interprète la matière informationnelle présentée. Au sein de cette relation, le document agit comme un vecteur de communication voire d'interaction. Ainsi, nous avons formalisé un modèle de document multimédia pour la conception qui supporte la norme MPEG7 ; il s'agit du "Scénario Interactif " (ScoI). Le ScoI est instrumenté dans un système interactif d'écrilecture multimédia connecté à un système de recherche d'information multimédia contextualisée. Nous avons donc adapté une méthode de recherche d'information afin d'extraire des fragments multimédias d'un corpus de documents semi-structurés et d'envisager une recomposition. Un processus dynamique d'interaction homme-machine oriente et assiste les choix de l'auteur dans la construction du document à produire, ou document cible. "
Digitalization of audio-visual documents (DAV) improves storage techniques, which boosts innovating uses of DAV exploitation. Thus, our aim is enrich the activities of audio-visual writing based on the re-use of video fragments. After an analysis of documentary practices, we formalized the task of "multi-media read-writing" by adapting cognitive models of writing. This task brings into play the originator and the reader in a double narrative/discursive fitting, where everyone interprets the informational matter which is being presented. Within this relation, the document acts like a vector of communication and even of interaction. Therefore, we formalized a multi-media model for audio-visual design that supports MPEG7 standardization; we are talking about the "Interactive Scenario" (ScoI). ScoI is a virtual document and a suitable pool for the integration of heterogeneous fragments. This model integrates knowledge on the media, on the design’s process and on the contents access methods. The scenario is instrumented on a multimedia writing interactive system which is connected to a search system for contextualized multimedia information. We thus adapted a method of information search in order to extract multimedia fragments from a corpus of semi-structured documents and considered a recombination. A dynamic human-computer interaction process directs and assists the choices of the author in the construction of the document to be produced, or target document
APA, Harvard, Vancouver, ISO, and other styles
22

Xie, Fuchun. "Tatouage sûr et robuste appliqué au traçage de documents multimédia." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00592126.

Full text
Abstract:
Cette thèse porte sur la conception d'une technique de tatouage sûr et robuste dans le contexte du traçage de documents multimédia, et propose un système complet du traçage de traîtres. Ces travaux s'appuient sur la technique de tatouage zéro-bit robuste 'Broken Arrows', dont nous proposons des améliorations afin de la rendre plus robuste, notamment à l'attaque de débruitage de A. Westfeld, et plus sûre. Sa sécurité est renforcée au regard des attaques connues et publiées, telles que l'attaque de regroupement de A. Westfeld et l'attaque d'estimation de sous-espace de P. Bas. Par ailleurs, nous étendons sa sécurité en considérant des attaques non publiées. Nous proposons ainsi une nouvelle technique de tatouage sûr, basé sur un test de décision 'a contrario' et une insertion avec maximisation sous contraintes d'imperceptibilité et de sécurité. Nous proposons dans le dernier chapitre un schéma complet de traçage de documents multimédia, basé sur les codes de Tardos en version q-aire symétrique et les techniques du tatouage améliorées mentionnées plus haut. Comme les techniques du tatouage sont très robustes, nous pouvons détecter plusieurs symboles en un seul bloc attaqué, ce qui nous permet de proposer deux méthodes d'accusation étendues pour le code de Tardos. Les études expérimentales montrent les bonnes performances de notre schéma de traçage, y compris face à des attaques jusqu'alors mal gérées comme la fusion de documents.
APA, Harvard, Vancouver, ISO, and other styles
23

Daoudi, Imane. "Recherche par similarité dans les grandes bases de données multimédia : application à la recherche par le contenu dans les bases d'images." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0057/these.pdf.

Full text
Abstract:
L’émergence des données numériques multimédia ne cesse d’augmenter. L’accès, le partage, le stockage et la recherche de ces données sont devenues des besoins réels et les problématiques sont nombreuses et variées. Afin de rendre cette masse d’information facilement exploitable pour tout utilisateur, il est nécessaire de disposer de techniques d’indexation et de recherche rapides et efficaces. Mes travaux de thèse s’inscrivent dans le domaine des données multimédia et plus précisément des images fixes. L’objectif principal est de développer une méthode performante d’indexation et de recherche des k plus proches voisins (kppv) qui soit adaptée à la recherche d’image par le contenu et aux propriétés des descripteurs d’images (grand volume, grande dimension, hétérogénéité, etc. ). Il s’agit d’une part, d’apporter des réponses aux problèmes de passage à l’échelle et de la malédiction de la dimension et d’autre part de traiter les problèmes de mesure de similarité qui se posent, et qui sont liés à la nature des données manipulées. Notre première proposition consiste en l’utilisation d’une structure d’indexation multidimensionnelle basée sur l’approximation ou filtrage, par une amélioration de la méthode RA-Blocks. Elle repose sur un algorithme de découpage de l’espace de données qui améliore notablement la capacité de stockage de l’index ainsi que le temps de la recherche. Dans un deuxième temps, nous proposons une méthode d’indexation multidimensionnelle adaptée à des données hétérogènes (couleur, texture, forme). Notre méthode combine une technique non linéaire de la réduction de la dimension à une structure d’indexation multidimensionnelle basée sur l’approche approximation. Cette combinaison permet de répondre à travers, un formaliste unique, aux différents verrous que nous nous sommes fixés de lever
[The emergence of digital multimedia data is increasing. Access, sharing and retrieval of these data have become the real needs. This requires the use of powerful tools and search engine for fast and efficient access to data. The spectacular growth of technologies and numeric requires the use of powerful tools and search engine for fast and efficient access to data. My thesis work is in the field of multimedia data especially images. The main objectives is to develop a fast and efficient indexing and searching method of the k nearest neighbour which is adapted for applications in Content-based image retrieval (CBIR) and for properties of image descriptors (high volume, large dimension, etc. ). The main idea is on one hand, to provide answers to the problems of scalability and the curse of dimensionality and the other to deal with similarity problems that arise in indexing and CBIR. We propose in this thesis two different approaches. The first uses a multidimensional indexing structure based on approximation approach or filtering, which is an improvement in the RA-Blocks method. The proposed method is based on the proposal of an algorithm of subdividing the data space which improves the storage capacity of the index and the CPU times. In a second approach, we propose a multidimensional indexing method suitable for heterogeneous data (colour, texture, shape). The second proposed method combines a non linear dimensionality reduction technique with a multidimensional indexing approach based on approximation. This combination allows one hand to deal with the curse of dimensionality scalability problems and also to exploit the properties of the non-linear space to find suitable similarity measurement for the nature of manipulated data. ]
APA, Harvard, Vancouver, ISO, and other styles
24

Gosselin, Philippe-Henri. "Apprentissage interactif pour la recherche par le contenu dans les bases multimédias." Habilitation à diriger des recherches, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00660316.

Full text
Abstract:
Les bases actuelles de données multimédia nécessitent des outils de plus en plus avancés pour pouvoir être parcourues avec efficacité. Dans ce contexte, la recherche en interaction avec un utilisateur est une approche qui permet de résoudre des requêtes à la sémantique complexe avec rapidité, sans pour autant nécessiter un haut niveau d'expertise utilisateur. Parmi les différents éléments intervenant dans la conception d'un système de recherche interactive, deux parties essentielles interviennent: l'indexation et la similarité entre les documents multimédia, et la gestion du processus interactif. Dans le contexte de la recherche multimédia par le contenu, on s'appuie sur des descriptions visuelles extraites automatiquement des documents. Suite à cette étape initiale, il est nécessaire de produire des structures de données, appelées index, ainsi qu'une métrique capable de comparer ces structures. Pour ce faire, nous proposons de représenter un document sous la forme d'un graphe, où chaque sommet du graphe représente une partie du document (région, point d'intérêt, ...) et chaque arête du graphe représente une relation entre deux parties du document. Puis, nous introduisons des métriques associées, sous la forme de fonctions noyaux sur graphes, qui permettent d'utiliser ces représentations complexes avec les méthodes d'apprentissages Hilbertiennes, telle que les SVMs. La gestion du processus interactif entre le système et un utilisateur a fait d'important progrès grâce à l'approche dite par apprentissage actif. Les premières approches proposent des critères pertinents pour la sélection de document à faire annoter par l'utilisateur, dans le but de trouver les documents recherchés au plus vite. Dans ce contexte, nous proposons d'aller plus loin en nous intéressant à la fabrication "en ligne" d'index et métriques associées en fonction de la nature de la recherche. En d'autres termes, nous proposons de remplacer le schéma traditionnel, où un unique index général est utilisé, par un schéma d'indexation active, où chaque utilisateur dispose d'un index dédié à sa requête.
APA, Harvard, Vancouver, ISO, and other styles
25

Kaced, Ahmed Réda. "Problèmes de sécurité posés par les proxies d'adaptation multimédia : proposition de solutions pour une sécurisation de bout-en-bout." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005883.

Full text
Abstract:
L'évolution des techniques d'adaptation et des contenus multimédias adaptables a montré la nécessité de définir des techniques et des pratiques concernant la sécurité des échanges sur les réseaux. Dans la mesure où l'adaptation des documents multimédia nécessite d'autoriser la modification de ces documents entre le serveur et le client, il est important d'étudier les conditions nécessaires pour assurer ces modifications de façon sécurisée. Nous avons donc, dans ce cadre, à présenter un système de communication multimédia qui préserve l'authenticité et l'intégrité des contenus originaux de bout en bout tout en permettant l'adaptation de ces contenus par des intermédiaires. C'est l'objectif général de cette thèse. Dans ce mémoire, nous présentons SEMAFOR, une plate-forme de communication multimédia offrant aux utilisateurs la possibilité d'adapter leur contenus (selon les besoins) par des n\oe uds intermédiaires. La particularité de cette plate-forme est sa capacité de sécuriser le contenu émis de bout-en-bout, cette sécurisation repose sur deux mécanismes proposés et décrits dans cette thèse : AMCA pour l'authentification des contenu et XSST pour le chiffrement et rechiffrement intermédiaire. Les tests et les mesures de performances présentés à la fin de ce mémoire démontrent la validité des propositions décrites dans cette thèse et valident la pertinence des résultats obtenus.
APA, Harvard, Vancouver, ISO, and other styles
26

Ly, Anh Tuan. "Accès et utilisation de documents multimédia complexes dans une bibliothèque numérique." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00871651.

Full text
Abstract:
Dans le cadre de trois projets européens, notre équipe a mis au point un modèle de données et un langage de requête pour bibliothèques numériques supportant l'identification, la structuration, les métadonnées, la réutilisation, et la découverte des ressources numériques. Le modèle proposé est inspiré par le Web et il est formalisé comme une théorie du premier ordre, dont certains modèles correspondent à la notion de bibliothèque numérique. En outre, une traduction complète du modèle en RDF et du langage de requêtes en SPARQL a également été proposée pour démontrer son adéquation à des applications pratiques. Le choix de RDF est dû au fait qu'il est un langage de représentation généralement accepté dans le cadre des bibliothèques numériques et du Web sémantique. L'objectif de cette thèse était double: concevoir et mettre en œuvre une forme simplifiée de système de gestion de bibliothèques numériques, d'une part, et contribuer à l'enrichissement du modèle, d'autre part. Pour atteindre cet objectif nous avons développé un prototype d'un système de bibliothèque numérique utilisant un stockage RDF pour faciliter la gestion interne des métadonnées. Le prototype permet aux utilisateurs de gérer et d'interroger les métadonnées des ressources numériques ou non-numériques dans le système en utilisant des URIs pour identifier les ressources, un ensemble de prédicats pour la description de ressources, et des requêtes conjonctives simples pour la découverte de connaissances dans le système. Le prototype est mis en œuvre en utilisant les technologies Java et l'environnement de Google Web Toolkit dont l'architecture du système se compose d'une couche de stockage, d'une couche de métier logique, d'une couche de service, et d'une interface utilisateur. Pendant la thèse, le prototype a été construit, testé et débogué localement, puis déployé sur Google App Engine. Dans l'avenir, il peut être étendu pour devenir un système complet de gestion de bibliothèques numériques. Par ailleurs, la thèse présente également notre contribution à la génération de contenu par réutilisation de ressources. Il s'agit d'un travail théorique dont le but est d'enrichir le modèle en lui ajoutant un service important, à savoir la possibilité de création de nouvelles ressources à partir de celles stockées dans le système. L'incorporation de ce service dans le système sera effectuée ultérieurement.
APA, Harvard, Vancouver, ISO, and other styles
27

Martin, Jean-Pascal. "Description sémiotique de contenus audiovisuels." Paris 11, 2005. http://www.theses.fr/2005PA112297.

Full text
Abstract:
Trois catégories d'éléments de description du contenu sont nécessaires pour la description d'un Document AudioVisuel (DAV) : les objets montrés, les procédés de mise en image et les relations diégétiques. L'identification des relations diégétiques (ie celles de l'univers spatio-temporel désigné par le récit) ne peut être automatisée. Les formalismes de la communauté utilisent des descripteurs sémantiques difficiles à sélectionner puisqu'ils dépendent d'éléments contextuels interprétés d'après des connaissances élaborées. Nous choisissons de garder l'homme dans la chaîne d'indexation pour répondre à ce constat. Deux éléments de réponse sont fournis. Premièrement, nous proposons une méthode d'indexation sémiotique fondée sur l'identification et l'explicitation des signes réifiés lors de l'analyse. Pour cela, nous définissions le signe tétraédrique qui est une représentation cognitive composée nécessairement d'un signifié et d'un signifiant et éventuellement de référents intensionnels et extensionnels. Nous définissions ensuite l'interprétation comme une réécriture sémiotique. Les graphes de signes sont proposés comme corrélats de l'activité mentale et peuvent être opérationnalisés par des schémas (RDF+OWL) servant d'extension à MPEG-7. Deuxièmement, nous préconisons un modèle d'interaction opérative entre l'homme et le système outillant la réification de l'interprétation. Une plateforme pour la construction de graphes de signes fondée sur le paradigme multi-agents permet la construction dynamique et négociée de signes exprimés selon une syntaxe et une grammaire fournie. Des schémas d'interprétation fournissent aux agents des micros interprétations activables en contexte
Three categories of descriptors are necessary to describe an audiovisual content: objects shown, processes used for film direction, and diegetic relations. The identification of the diegetic relations (those of the space-time continuum of the narration) cannot be automated. The formalisms used by the community exploit semantic descriptors that are difficult to select since they depend on contextual elements interpreted according to sophisticated knowledge. We choose to keep the human in the center of indexation's process. Two kinds of answers are provided. First, we propose a method of semiotic indexing based on the identification and the clarification of the signs that are reified at the time of the analysis. For that, we define the tetrahedral sign as a cognitive representation necessarily made up of one meant and of one meaning and possibly intensional and extensional referents. We define then the process of interpretation as a semiotic rewriting. We propose a formalism for graphs of signs (expressed with RDF+OWL schema integrated as extensions of MPEG-7) to represent the mental activity of interpretation. Second, we recommend a model of operative interaction between the man and the system that makes the reification of interpretation easier. A platform for the construction of graphs of signs based on the multi-agents paradigm allows dynamic and negotiated construction signs. Those signs are expressed according to provided syntax and grammar. Diagrams of interpretation provide to the agents micro-interpretations that may be activated in context
APA, Harvard, Vancouver, ISO, and other styles
28

Mbarki, Mohamed. "Gestion de l'hétérogénéité documentaire : le cas d'un entrepôt de documents multimédia." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/185/.

Full text
Abstract:
La société de la connaissance est basée sur trois axes : la diffusion et l'usage de l'information via les nouvelles technologies, la déduction des connaissances induites par cette information et les impacts économiques qui peuvent en découler. Proposer aux acteurs et plus particulièrement aux "décideurs" de cette société des outils qui leur permettent d'élaborer de la "connaissance" ou du moins des "éléments de connaissance" à partir de l'information disponible semblent être assez difficile à assurer. Cette difficulté est due au dynamisme de l'environnement et la diversité des facteurs influençant la production, l'extraction et la communication des informations. En effet, ces informations sont englobées dans des documents qui sont collectés à partir des sources disséminées (Internet, Workflow, bibliothèques numériques, etc. ). Ces documents sont ainsi hétérogènes sur le fond et sur la forme (ils peuvent concerner des domaines divers, sont plus ou moins structurés, peuvent être liés à des structures diverses, contiennent plusieurs type de média, sont stockés dans plusieurs type de supports, etc. ). Les défis actuels sont de concevoir de nouvelles applications pour exploiter cette grande masse de documents très hétérogènes. Les travaux présentés dans cette thèse, visent à faire face à ces défis et notamment à proposer des solutions permettant de "gérer et créer de la connaissance" à partir de l'intégration de toute l'information disponible sur les documents hétérogènes. La manipulation des entrepôts de documents multimédia constitue le cadre applicatif de nos propositions. Notre approche s'articuler autour de trois axes complémentaires : (1) la représentation, (2) le stockage (ou l'intégration) et (3) l'exploitation des documents hétérogènes. La représentation des documents concerne la détermination des informations à conserver et la façon selon laquelle elles doivent être organisées pour mieux appréhender et prévoir leurs usages. La solution que nous avons choisie pour répondre à ces besoins se base sur la proposition d'un modèle qui intègre plusieurs niveaux de description imbriqués et complémentaires (une couche générique et une couche spécifique, une description logique et une description sémantique). .
The knowledge society is based on three axes: the diffusion and use of information via new technologies, the deduction of knowledge induced by this information and the economic impacts which can result from this information. To offer to the actors and more particularly to the "decision makers" of this society some tools which enable them to produce and manage "knowledge" or at least "elements of knowledge" seem to be rather difficult to ensure. This difficulty is due to the dynamism of the environment and the diversity of factors influencing the information production, extraction and communication. Indeed, this information is included in documents which are collected from disseminated sources (Internet, Workflow, numerical libraries, etc. ). These documents are thus heterogeneous on the content and on the form (they can be related to various fields, they can be more or less structured, they can have various structures, they contain several type of media, are stored in several type of supports, etc). The current challenges are to conceive new applications to exploit this document heterogeneity. Having in mind these needs, the work presented in my thesis, aims to face these challenges and in particular at proposing solutions in order "to manage and create knowledge" starting from the integration of all information available on the heterogeneous documents. The handling of multimedia documents repositories constitutes the applicative framework of our proposals. Our approach is articulated around three complementary axes: (1) the representation, (2) storage (or integration) and (3) exploitation of the heterogeneous documents. Documents representation is related to the determination of information that must be preserved and the way according to which they must be organized to offer better apprehending and envisaging of their uses. The solution that we chose to meet these needs bases on the proposal for a documents model which integrates several overlapping and complementary levels of description (a generic layer and a specific one, a logical description and a semantic one). .
APA, Harvard, Vancouver, ISO, and other styles
29

Mora, Elie-Gabriel. "Codage multi-vues multi-profondeur pour de nouveaux services multimédia." Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0007/document.

Full text
Abstract:
Les travaux effectués durant cette thèse de doctorat ont pour but d’augmenter l’efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L’héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d’encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l’estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d’une vue de base reconstruite, puis l’extrapole au niveau d’une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d’une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées
This PhD. thesis deals with improving the coding efficiency in 3D-HEVC. We propose both constrained approaches aimed towards standardization, and also more innovative approaches based on optical flow. In the constrained approaches category, we first propose a method that predicts the depth Intra modes using the ones of the texture. The inheritance is driven by a criterion measuring how much the two are expected to match. Second, we propose two simple ways to improve inter-view motion prediction in 3D-HEVC. The first adds an inter-view disparity vector candidate in the Merge list and the second modifies the derivation process of this disparity vector. Third, an inter-component tool is proposed where the link between the texture and depth quadtree structures is exploited to save both runtime and bits through a joint coding of the quadtrees. In the more innovative approaches category, we propose two methods that are based on a dense motion vector field estimation using optical flow. The first computes such a field on a reconstructed base view. It is then warped at the level of a dependent view where it is inserted as a dense candidate in the Merge list of prediction units in that view. The second method improves the view synthesis process: four fields are computed at the level of the left and right reference views using a past and a future temporal reference. These are then warped at the level of the synthesized view and corrected using an epipolar constraint. The four corresponding predictions are then blended together. Both methods bring significant coding gains which confirm the potential of such innovative solutions
APA, Harvard, Vancouver, ISO, and other styles
30

Mora, Elie-Gabriel. "Codage multi-vues multi-profondeur pour de nouveaux services multimédia." Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0007.

Full text
Abstract:
Les travaux effectués durant cette thèse de doctorat ont pour but d’augmenter l’efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L’héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d’encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l’estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d’une vue de base reconstruite, puis l’extrapole au niveau d’une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d’une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées
This PhD. thesis deals with improving the coding efficiency in 3D-HEVC. We propose both constrained approaches aimed towards standardization, and also more innovative approaches based on optical flow. In the constrained approaches category, we first propose a method that predicts the depth Intra modes using the ones of the texture. The inheritance is driven by a criterion measuring how much the two are expected to match. Second, we propose two simple ways to improve inter-view motion prediction in 3D-HEVC. The first adds an inter-view disparity vector candidate in the Merge list and the second modifies the derivation process of this disparity vector. Third, an inter-component tool is proposed where the link between the texture and depth quadtree structures is exploited to save both runtime and bits through a joint coding of the quadtrees. In the more innovative approaches category, we propose two methods that are based on a dense motion vector field estimation using optical flow. The first computes such a field on a reconstructed base view. It is then warped at the level of a dependent view where it is inserted as a dense candidate in the Merge list of prediction units in that view. The second method improves the view synthesis process: four fields are computed at the level of the left and right reference views using a past and a future temporal reference. These are then warped at the level of the synthesized view and corrected using an epipolar constraint. The four corresponding predictions are then blended together. Both methods bring significant coding gains which confirm the potential of such innovative solutions
APA, Harvard, Vancouver, ISO, and other styles
31

Aubry, Willy. "Etude et mise en place d’une plateforme d’adaptation multiservice embarquée pour la gestion de flux multimédia à différents niveaux logiciels et matériels." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14678/document.

Full text
Abstract:
Les avancées technologiques ont permis la commercialisation à grande échelle de terminaux mobiles. De ce fait, l’homme est de plus en plus connecté et partout. Ce nombre grandissant d’usagers du réseau ainsi que la forte croissance du contenu disponible, aussi bien d’un point de vue quantitatif que qualitatif saturent les réseaux et l’augmentation des moyens matériels (passage à la fibre optique) ne suffisent pas. Pour surmonter cela, les réseaux doivent prendre en compte le type de contenu (texte, vidéo, ...) ainsi que le contexte d’utilisation (état du réseau, capacité du terminal, ...) pour assurer une qualité d’expérience optimum. A ce sujet, la vidéo fait partie des contenus les plus critiques. Ce type de contenu est non seulement de plus en plus consommé par les utilisateurs mais est aussi l’un des plus contraignant en terme de ressources nécéssaires à sa distribution (taille serveur, bande passante, …). Adapter un contenu vidéo en fonction de l’état du réseau (ajuster son débit binaire à la bande passante) ou des capacités du terminal (s’assurer que le codec soit nativement supporté) est indispensable. Néanmoins, l’adaptation vidéo est un processus qui nécéssite beaucoup de ressources. Cela est antinomique à son utilisation à grande echelle dans les appareils à bas coûts qui constituent aujourd’hui une grande part dans l’ossature du réseau Internet. Cette thèse se concentre sur la conception d’un système d’adaptation vidéo à bas coût et temps réel qui prendrait place dans ces réseaux du futur. Après une analyse du contexte, un système d’adaptation générique est proposé et évalué en comparaison de l’état de l’art. Ce système est implémenté sur un FPGA afin d’assurer les performances (temps-réels) et la nécessité d’une solution à bas coût. Enfin, une étude sur les effets indirects de l’adaptation vidéo est menée
On the one hand, technology advances have led to the expansion of the handheld devices market. Thanks to this expansion, people are more and more connected and more and more data are exchanged over the Internet. On the other hand, this huge amound of data imposes drastic constrains in order to achieve sufficient quality. The Internet is now showing its limits to assure such quality. To answer nowadays limitations, a next generation Internet is envisioned. This new network takes into account the content nature (video, audio, ...) and the context (network state, terminal capabilities ...) to better manage its own resources. To this extend, video manipulation is one of the key concept that is highlighted in this arising context. Video content is more and more consumed and at the same time requires more and more resources. Adapting videos to the network state (reducing its bitrate to match available bandwidth) or to the terminal capabilities (screen size, supported codecs, …) appears mandatory and is foreseen to take place in real time in networking devices such as home gateways. However, video adaptation is a resource intensive task and must be implemented using hardware accelerators to meet the desired low cost and real time constraints.In this thesis, content- and context-awareness is first analyzed to be considered at the network side. Secondly, a generic low cost video adaptation system is proposed and compared to existing solutions as a trade-off between system complexity and quality. Then, hardware conception is tackled as this system is implemented in an FPGA based architecture. Finally, this system is used to evaluate the indirect effects of video adaptation; energy consumption reduction is achieved at the terminal side by reducing video characteristics thus permitting an increased user experience for End-Users
APA, Harvard, Vancouver, ISO, and other styles
32

Derbas, Nadia. "Contributions à la détection de concepts et d'événements dans les documents vidéos." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM035/document.

Full text
Abstract:
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes
A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns
APA, Harvard, Vancouver, ISO, and other styles
33

Berrani, Sid-Ahmed. "Recherche approximative de plus proches voisins avec contrôle probabiliste de la précision ; application à la recherche d'images par le contenu." Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00532854.

Full text
Abstract:
Cette thèse s'intéresse aux systèmes de recherche d'images par le contenu, où le but est de rechercher les images les plus similaires à une image requête fournie en exemple. Pour cela, il est d'abord nécessaire de décrire les images stockées dans la base. L'objectif est de traduire la similarité visuelle entre images en une simple notion de proximité spatiale entre descripteurs. Ainsi, pour retrouver les images similaires à l'image requête, il suffit de retrouver les descripteurs les plus proches du descripteur de l'image requête. Ce mode de recherche, appelé recherche de plus proches voisins, est cependant extrêmement coûteux même lorsque les techniques s'indexation multidimensionnelles sont utilisées. Les performances de celles-ci se dégradent exponentiellement lorsque la dimension des descripteurs augmente (phénomène de la malédiction de la dimension). Il s'avère toutefois que l'on peut fortement réduire le coût de ces recherches en effectuant des recherches approximatives. Le principe est alors de négocier une réduction du temps de réponse contre l'introduction d'imprécisions durant la recherche. Ce travail reprend ce principe et propose une nouvelle méthode de recherche approximative de plus proches voisins qui permet un contrôle fin et intuitif de la précision de la recherche. Ce contrôle s'exprime au travers d'un seul paramètre qui indique la probabilité maximale de ne pas trouver un des plus proches voisins recherchés. Dans le but d'évaluer rigoureusement ses performances dans le cadre d'un système réel, la méthode proposée a été ensuite intégrée dans un système de recherche d'images pour la détection de copies. Les expérimentations effectuées montrent que la méthode proposée est efficace, fiable et son imprécision n'a qu'un impact mineur sur la qualité des résultats finaux.
APA, Harvard, Vancouver, ISO, and other styles
34

Le, Guen Benjamin. "Adaptation du contenu spatio-temporel des images pour un codage par ondelettes." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355207.

Full text
Abstract:
Les limites de l'ondelette séparable standard, dans le cas 2D, sont bien connues. Le support rectangulaire fixe de l'ondelette ne permet pas d'exploiter la géométrie des images et en particulier les corrélations le long de contours courbes. Ceci se traduit par une dispersion de l'énergie des coefficients dans le domaine ondelette et produit un phénomène de rebonds gênant visuellement lors d'une approximation avec un petit nombre de coefficients. Pour y remédier, une seconde génération d'ondelettes est née. L'approche la plus courante est de déformer le noyau d'ondelette pour l'adapter au contenu géométrique d'une image.
Dans cette thèse, nous proposons d'aborder le problème d'adaptativité sous un angle différent. L'idée est de déformer le contenu d'une image pour l'adapter au noyau d'ondelette séparable standard. La déformation est modélisée par un maillage déformable et le critère d'adaptation utilisé est le coût de description de l'image déformée. Une minimisation énergétique similaire à une estimation de mouvement est mise en place pour calculer les paramètres du maillage. A l'issue de cette phase d'analyse, l'image est représentée par une image déformée de moindre coût de codage et par les paramètres de déformation. Après codage, transmission et décodage de ces inforrnations, l'image d'origine peut être synthétisée en inversant la déformation. Les performances en compression de ce schéma par analyse-synthèse spatiales sont étudiées et comparées à celles de JPEG2000. Visuellement, on observe une meilleure reconstruction des contours des images avec une atténuation significative de l'effet rebond.
Conservant l'idée d'adapter le contenu des images à un noyau de décomposition fixe, nous proposons ensuite un schéma de codage par analyse-synthèse spatio-temporelles dédié à la vidéo. L'analyse prend en entrée un groupe d'images (GOF) et génère en sortie un groupe d'images déformées dont le contenu est adapté à une décomposition 3D horizontale-verticale-temporelle fixe. Le schéma est conçu de sorte qu'une seule géométrie soit estimée et transmise pour l'ensemble du GOF. Des résultats de compression sont présentés en utilisant le maillage déformable pour modéliser la géométrie et le mouvement. Bien qu'une seule géométrie soit encodée, nous montrons que son coût est trop important pour permettre une amélioration significative de la qualité visuelle par rapport à un schéma par analyse-synthèse exploitant uniquement le mouvement.
APA, Harvard, Vancouver, ISO, and other styles
35

Mora, Elie Gabriel. "Codage multi-vues multi-profondeur pour de nouveaux services multimédia." Phd thesis, Telecom ParisTech, 2014. http://tel.archives-ouvertes.fr/tel-01061005.

Full text
Abstract:
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.
APA, Harvard, Vancouver, ISO, and other styles
36

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Full text
Abstract:
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
APA, Harvard, Vancouver, ISO, and other styles
37

Livshin, Arie. "IDENTIFICATION AUTOMATIQUE DES INSTRUMENTS DE MUSIQUE." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00810688.

Full text
Abstract:
Cette thèse traite de divers aspects d'Identification Automatique d'Instruments de Musique (IAIM). L'IAIM signifie, d'une manière intuitive, que pour un enregistrement musical donné, l'ordinateur essaie d'identifier quels instruments de musique sont utilisés dans quelles parties de l'enregistrement. La recherche en IAIM s'est développée au cours des 10 dernières années en particulier grâce à son utilisation en tant que composant d'un moteur de recherche "intelligent" pour la musique. Ce moteur de recherche peut trouver la musique sur internet ou sur des lecteurs MP3 selon des critères "intelligents" comme par exemple le style ou le genre de musique alors que des moteurs de recherche classiques utilisent seulement l'information textuelle liée aux fichiers musicaux. D'autres utilisations de l'IAIM concernent d'autres algorithmes de recherche dans la musique, comme par exemple la transcription automatique et l'alignement de partition, ou encore les logiciels dédiés à la composition musicale ou à l'enregistrement en studio. L'IAIM est composée de plusieurs étapes qui constituent chacune un défi pour les chercheurs. Les différentes étapes, présentées dans cette thèse, sont les suivantes: obtenir et formater les bases de données de sons pour l'apprentissage et l'évaluation, calculer les descripteurs des sons, procéder au nettoyage automatique des bases de données, attribuer des poids aux descripteurs et réduire leur dimension, et, enfin, classer les sons selon leur appartenance aux différents instruments. Mener une évaluation correcte du déroulement de l'AMIR constitue aussi un travail fondamental. Ce travail traite en détail des différentes étapes du processus de l'IAIM et, tout en comblant des lacunes et des défaillances dans l'état de l'art, introduit de nouvelles techniques et de nouvelles méthodes pour le perfectionner: il permet d'identifier les instruments de musique à partir des tons séparés, des solos, de la musique polyphonique et multi-instrumentale.
APA, Harvard, Vancouver, ISO, and other styles
38

Le, Huu Ton. "Improving image representation using image saliency and information gain." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2287/document.

Full text
Abstract:
De nos jours, avec le développement des nouvelles technologies multimédia, la recherche d’images basée sur le contenu visuel est un sujet de recherche en plein essor avec de nombreux domaines d'application: indexation et recherche d’images, la graphologie, la détection et le suivi d’objets... Un des modèles les plus utilisés dans ce domaine est le sac de mots visuels qui tire son inspiration de la recherche d’information dans des documents textuels. Dans ce modèle, les images sont représentées par des histogrammes de mots visuels à partir d'un dictionnaire visuel de référence. La signature d’une image joue un rôle important car elle détermine la précision des résultats retournés par le système de recherche.Dans cette thèse, nous étudions les différentes approches concernant la représentation des images. Notre première contribution est de proposer une nouvelle méthodologie pour la construction du vocabulaire visuel en utilisant le gain d'information extrait des mots visuels. Ce gain d’information est la combinaison d’un modèle de recherche d’information avec un modèle d'attention visuelle.Ensuite, nous utilisons un modèle d'attention visuelle pour améliorer la performance de notre modèle de sacs de mots visuels. Cette étude de la saillance des descripteurs locaux souligne l’importance d’utiliser un modèle d’attention visuelle pour la description d’une image.La dernière contribution de cette thèse au domaine de la recherche d’information multimédia démontre comment notre méthodologie améliore le modèle des sacs de phrases visuelles. Finalement, une technique d’expansion de requêtes est utilisée pour augmenter la performance de la recherche par les deux modèles étudiés
Nowadays, along with the development of multimedia technology, content based image retrieval (CBIR) has become an interesting and active research topic with an increasing number of application domains: image indexing and retrieval, face recognition, event detection, hand writing scanning, objects detection and tracking, image classification, landmark detection... One of the most popular models in CBIR is Bag of Visual Words (BoVW) which is inspired by Bag of Words model from Information Retrieval field. In BoVW model, images are represented by histograms of visual words from a visual vocabulary. By comparing the images signatures, we can tell the difference between images. Image representation plays an important role in a CBIR system as it determines the precision of the retrieval results.In this thesis, image representation problem is addressed. Our first contribution is to propose a new framework for visual vocabulary construction using information gain (IG) values. The IG values are computed by a weighting scheme combined with a visual attention model. Secondly, we propose to use visual attention model to improve the performance of the proposed BoVW model. This contribution addresses the importance of saliency key-points in the images by a study on the saliency of local feature detectors. Inspired from the results from this study, we use saliency as a weighting or an additional histogram for image representation.The last contribution of this thesis to CBIR shows how our framework enhances the BoVP model. Finally, a query expansion technique is employed to increase the retrieval scores on both BoVW and BoVP models
APA, Harvard, Vancouver, ISO, and other styles
39

Gayrard, Catherine. "Problèmes rencontrés au cours de l'analyse du contenu en ADN et de la fraction de cellules en phase de synthèse d'ADN par cytométrie en flux dans le cancer du sein : à propos de 53 cas." Paris 5, 1994. http://www.theses.fr/1994PA05P028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Ajili, Moez. "Reliability of voice comparison for forensic applications." Thesis, Avignon, 2017. http://www.theses.fr/2017AVIG0223/document.

Full text
Abstract:
Dans les procédures judiciaires, des enregistrements de voix sont de plus en plus fréquemment présentés comme élément de preuve. En général, il est fait appel à un expert scientifique pour établir si l’extrait de voix en question a été prononcé par un suspect donné (prosecution hypothesis) ou non (defence hypothesis). Ce prosessus est connu sous le nom de “Forensic Voice Comparison (FVC)” (comparaison de voix dans le cadre judiciaire). Depuis l’émergence du modèle DNA typing, l’approche Bayesienne est devenue le nouveau “golden standard” en sciences criminalistiques. Dans cette approche, l’expert exprime le résultat de son analyse sous la forme d’un rapport de vraisemblance (LR). Ce rapport ne favorise pas seulement une des hypothèses (“prosecution” ou “defence”) mais il fournit également le poids de cette décision. Bien que le LR soit théoriquement suffisant pour synthétiser le résultat, il est dans la pratique assujetti à certaines limitations en raison de son processus d’estimation. Cela est particulièrement vrai lorsque des systèmes de reconnaissance automatique du locuteur (ASpR) sont utilisés. Ces systèmes produisent un score dans toutes les situations sans prendre en compte les conditions spécifiques au cas étudié. Plusieurs facteurs sont presque toujours ignorés par le processus d’estimation tels que la qualité et la quantité d’information dans les deux enregistrements vocaux, la cohérence de l’information entre les deux enregistrements, leurs contenus phonétiques ou encore les caractéristiques intrinsèques des locuteurs. Tous ces facteurs mettent en question la notion de fiabilité de la comparaison de voix dans le cadre judiciaire. Dans cette thèse, nous voulons adresser cette problématique dans le cadre des systèmes automatiques (ASpR) sur deux points principaux. Le premier consiste à établir une échelle hiérarchique des catégories phonétiques des sons de parole selon la quantité d’information spécifique au locuteur qu’ils contiennent. Cette étude montre l’importance du contenu phonétique: Elle met en évidence des différences intéressantes entre les phonèmes et la forte influence de la variabilité intra-locuteurs. Ces résultats ont été confirmés par une étude complémentaire sur les voyelles orales basée sur les paramètres formantiques, indépendamment de tout système de reconnaissance du locuteur. Le deuxième point consiste à mettre en œuvre une approche afin de prédire la fiabilité du LR à partir des deux enregistrements d’une comparaison de voix sans recours à un ASpR. À cette fin, nous avons défini une mesure d’homogénéité (NHM) capable d’estimer la quantité d’information et l’homogénéité de cette information entre les deux enregistrements considérés. Notre hypothèse ainsi définie est que l’homogénéité soit directement corrélée avec le degré de fiabilité du LR. Les résultats obtenus ont confirmé cette hypothèse avec une mesure NHM fortement corrélée à la mesure de fiabilité du LR. Nos travaux ont également mis en évidence des différences significatives du comportement de NHM entre les comparaisons cibles et les comparaisons imposteurs. Nos travaux ont montré que l’approche “force brute” (reposant sur un grand nombre de comparaisons) ne suffit pas à assurer une bonne évaluation de la fiabilité en FVC. En effet, certains facteurs de variabilité peuvent induire des comportements locaux des systèmes, liés à des situations particulières. Pour une meilleure compréhension de l’approche FVC et/ou d’un système ASpR, il est nécessaire d’explorer le comportement du système à une échelle aussi détaillée que possible (le diable se cache dans les détails)
It is common to see voice recordings being presented as a forensic trace in court. Generally, a forensic expert is asked to analyse both suspect and criminal’s voice samples in order to indicate whether the evidence supports the prosecution (same-speaker) or defence (different-speakers) hypotheses. This process is known as Forensic Voice Comparison (FVC). Since the emergence of the DNA typing model, the likelihood-ratio (LR) framework has become the new “golden standard” in forensic sciences. The LR not only supports one of the hypotheses but also quantifies the strength of its support. However, the LR accepts some practical limitations due to its estimation process itself. It is particularly true when Automatic Speaker Recognition (ASpR) systems are considered as they are outputting a score in all situations regardless of the case specific conditions. Indeed, several factors are not taken into account by the estimation process like the quality and quantity of information in both voice recordings, their phonological content or also the speakers intrinsic characteristics, etc. All these factors put into question the validity and reliability of FVC. In this Thesis, we wish to address these issues. First, we propose to analyse how the phonetic content of a pair of voice recordings affects the FVC accuracy. We show that oral vowels, nasal vowels and nasal consonants bring more speaker-specific information than averaged phonemic content. In contrast, plosive, liquid and fricative do not have a significant impact on the LR accuracy. This investigation demonstrates the importance of the phonemic content and highlights interesting differences between inter-speakers effects and intra-speaker’s ones. A further study is performed in order to study the individual speaker-specific information for each vowel based on formant parameters without any use of ASpR system. This study has revealed interesting differences between vowels in terms of quantity of speaker information. The results show clearly the importance of intra-speaker variability effects in FVC reliability estimation. Second, we investigate an approach to predict the LR reliability based only on the pair of voice recordings. We define a homogeneity criterion (NHM) able to measure the presence of relevant information and the homogeneity of this information between the pair of voice recordings. We are expecting that lowest values of homogeneity are correlated with the lowest LR’s accuracy measures, as well as the opposite behaviour for high values. The results showed the interest of the homogeneity measure for FVC reliability. Our studies reported also large differences of behaviour between FVC genuine and impostor trials. The results confirmed the importance of intra-speaker variability effects in FVC reliability estimation. The main takeaway of this Thesis is that averaging the system behaviour over a high number of factors (speaker, duration, content...) hides potentially many important details. For a better understanding of FVC approach and/or an ASpR system, it is mandatory to explore the behaviour of the system at an as-detailed-as-possible scale (The devil lies in the details)
APA, Harvard, Vancouver, ISO, and other styles
41

Tripakis, Stavros. "L'analyse formelle des systèmes temporisés en pratique." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004907.

Full text
Abstract:
Dans cette thèse nous proposons un cadre formel complet pour l'analyse des systèmes temporisés, avec l'accent mis sur la valeur pratique de l'approche. Nous décrivons des systèmes comme des automates temporisés et nous exprimons les propriétés en logiques temps-réel. Nous considérons deux types d'analyse. Vérification : étant donnés un système et une propriété, vérifier que le système satisfait la propriété. Synthèse de contrôleurs : étant donnés un système et une propriété, restreindre le système pour qu'il satisfasse la propriété. Pour rendre l'approche possible malgré la difficulté théorique des problèmes, nous proposons : Des abstractions pour réduire l'espace d'états concret en un espace abstrait beaucoup plus petit qui, pourtant, préserve toutes les propriétés qui nous intéressent. Des techniques efficaces pour calculer et explorer l'espace d'états abstrait. Nous définissons des bisimulations et simulations faisant abstraction du temps et nous étudions les propriétés qu'elles préservent. Pour les bisimulations, l'analyse consiste à générer d'abord l'espace abstrait, et ensuite l'utiliser pour vérifier des propriétés sur l'espace concret. Pour les simulations, la génération et la vérification se font en même temps (à-la-volée). Un algorithme à-la-volée est aussi développé pour la synthèse de contrôleurs. Pour aider l'utilisateur à sa compréhension du système, nous produisons des séquences diagnostiques concrètes. Nous avons implanté nos méthodes dans Kronos, l'outil d'analyse temps-réel de Verimag, et nous avons traité un nombre d'études de cas réalistes parmi lesquelles le protocole FRP-DT de réservation rapide de débit pour les réseaux ATM (dans le cadre d'une coopération scientifique avec le CNET), le protocole de détection de collisions dans un réseaux à accès multiple de Band&Olufsen, l'ordonnancement de tâches temps-réel périodiques, la cohérence et l'ordonnancement des documents multimédia, ainsi qu'un nombre d'études de cas benchmarks, telles que le protocole d'exclusion mutuelle de Fischer, les protocoles de communication CSMA/CD et FDDI.
APA, Harvard, Vancouver, ISO, and other styles
42

Arcila, Romain. "Séquences de maillages : classification et méthodes de segmentation." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00653542.

Full text
Abstract:
Les séquences de maillages sont de plus en plus utilisées. Cette augmentation des besoins entraîne un développement des méthodes de génération de séquences de maillages. Ces méthodes de générations peuvent produire des séquences de maillages de natures différentes. Le nombre d'applications utilisant ces séquences s'est également accru, avec par exemple la compression et le transfert de pose. Ces applications nécessitent souvent de calculer une partition de la séquence. Dans cette thèse, nous nous intéressons plus particulièrement à la segmentation en composantes rigides de séquences de maillages. Dans un premier temps, nous formalisons la notion de séquence de maillages et proposons donc une classification permettant de désigner quelles sont les propriétés attachées à un type de séquence, et ainsi de décrire précisément quel type de séquence est nécessaire pour une application donnée. Dans un second temps, nous formalisons la notion de segmentation de séquence de maillages, et présentons également l'état de l'art des méthodes de segmentation sur les séquences de maillages. Ensuite, nous proposons une première méthode de type globale pour les séquences stables de maillages, fondée sur la fusion de régions. Par la suite, nous présentons deux autres méthodes, reposant sur la classification spectrale. La première, produit un ensemble de segmentations globales, tandis que la seconde génère une segmentation globale ou une segmentation temporellement variable. Nous mettons également en place un système d'évaluation quantitative des segmentations. Enfin, nous présentons les différentes perspectives liées à la segmentation.
APA, Harvard, Vancouver, ISO, and other styles
43

Plesca, Cezar. "Supervision de contenus multimédia : adaptation de contenu, politiques optimales de préchargement et coordination causale de flux." Phd thesis, 2007. http://oatao.univ-toulouse.fr/7600/1/plesca.pdf.

Full text
Abstract:
La qualité des systèmes d'informations distribués dépend de la pertinence du contenu mis à disposition, de la réactivité du service ainsi que de la cohérence des informations présentées. Nos travaux visent à améliorer ces trois critères de performance et passent par la prise en compte des caractéristiques de l'utilisateur, des ressources disponibles ou plus généralement du contexte d'exécution. Par conséquent, cette thèse comporte trois volets. Le premier volet se place dans le cadre de l'adaptation de systèmes d’information déployés dans des contextes dynamiques et stochastiques. Nous présentons une approche où des agents d’adaptation appliquent des politiques de décision séquentielle dans l'incertain. Nous modélisons ces agents par des Processus Décisionnels de Markov (PDM) selon que le contexte soit observable ou seulement partiellement observable (PDM Partiellement Observables). Dans le cas d’un service mobile de consultation de films, nous montrons en particulier qu’une politique d'adaptation de ce service à des ressources limitées peut être nuancée selon l'intérêt de l'utilisateur, estimé grâce à l’évaluation des signaux de retour implicite. Dans le deuxième volet, nous nous intéressons à l'optimisation de la réactivité d'un système qui propose des contenus hypermédia. Nous nous appuyons sur des techniques de préchargement pour réduire les latences. Comme précédemment, un PDM modélise les habitudes des utilisateurs et les ressources disponibles. La force de ce modèle réside dans sa capacité à fournir des politiques optimales de préchargement. Les premières politiques que nous obtenons sont simples. Nous enrichissons alors le modèle pour dériver des politiques de préchargement plus complexes et plus agressives et montrons leurs performances par simulation. Afin de personnaliser nos stratégies optimales nous proposons finalement un modèle PDMPO dont les politiques s'adaptent aux profils des utilisateurs. Le troisième volet se place dans le contexte des applications multimédia interactives distribuées et concerne le contrôle de la cohérence des flux multimédia répartis. Dans un tel contexte, plusieurs mécanismes de synchronisation sont nécessaires et plusieurs ordres logiques (fifo, causal, total) s'avèrent utiles. Nous proposons une boîte à outils capable de gérer plusieurs protocoles d’ordre partiel et d'assurer une délivrance correcte de chaque message, en respectant tous les ordres qui lui ont été imposés. Nous décrivons ensuite l’intégration des tolérances humaines vis-à-vis des courtes incohérences causales dans notre boîte à outils. Nos simulations montrent que de meilleures performances sont obtenues par cette méthode comparativement à d’autres approches, comme la causalité classique ou la Δ-causalité.
APA, Harvard, Vancouver, ISO, and other styles
44

LEMLOUMA, Tayeb. "Architecture de Négociation et d'Adaptation de Services Multimédia dans des Environnements Hétérogènes." Phd thesis, 2004. http://tel.archives-ouvertes.fr/tel-00006253.

Full text
Abstract:
Les progrès technologiques récents ont permis l'apparition d'une grande variété de nouveaux moyens pour accéder et utiliser l'information multimédia du Web en tout lieu et à tout moment. L'hétérogénéité des appareils d'accès s'est accompagné une évolution importante de l'information disponible sur le réseau. Aujourd'hui, on trouve une multitude de formats complexes avec de nouvelles fonctionnalités, telles que la vidéo interactive, les animations 3D et le dessin vectoriel. Ces formats s'appuient sur de nouveaux modèles de documents qui intègrent une structure logique, spatiale, temporelle et une dimension hypermédia.

Face à cette évolution, il est nécessaire de concevoir des systèmes qui permettent l'accès et l'utilisation de l'information sous une forme qui corresponde aux contraintes imposées par l'environnement. Cette thèse a pour objectif de contribuer à l'adaptation et à la négociation des contenus en considérant les limitations des utilisateurs et les contraintes de leur environnement. Nous présentons une architecture flexible appelée NAC qui permet de définir les composants qui interviennent dans la négociation et l'adaptation de contenu, et qui décrit comment ces composants sont organisés.

NAC permet plusieurs types d'adaptation : une adaptation structurelle, une adaptation sémantique et une adaptation des ressources médias. Ces types d'adaptation sont basés sur les différents contextes des clients (caractéristiques des terminaux, préférences des utilisateurs, etc.). Nous proposons également un modèle de description de contextes UPS (schémas universels pour la description des profils), un protocole de négociation et un ensemble de techniques d'adaptation. Les concepts de l'architecture NAC ont contribué aux travaux de standardisation du consortium W3C, en particulier au cadre de travail CC/PP et aux travaux sur l'indépendance des terminaux. Cette étude est complétée par une évaluation de performances qui démontre que le système proposé est exploitable dans la pratique.
APA, Harvard, Vancouver, ISO, and other styles
45

Charhad, Mbarek. "Modèles de Documents Vidéo basés sur le Formalisme des Graphes Conceptuels pour l'Indexation et la Recherche par le Contenu Sémantique." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00399724.

Full text
Abstract:
Les avancées technologiques dans le domaine du multimédia, associées à la généralisation de leur utilisation dans de nombreuses applications (archivages télévisuelles, vidéosurveillances, etc..), ont rendu possible le stockage des grandes collections de documents vidéo dans des systèmes informatiques. Pour permettre une exploitation efficace de ces collections, il est nécessaire de mettre en place des outils facilitant l'accès à leurs documents et la manipulation de ceux-ci. Une indexation par mots-clés (issus de la transcription de la parole et ou de sous-titre dans le document vidéo) est parfois possible. Cependant, l'utilisation de concepts peut améliorer les résultats de processus d'indexation et de recherche d'information parce qu'elle enlève les ambiguïtés entre les sens des mots-clés dus à la synonymie et l'homonymie. La précision de la description sera encore meilleure si, en plus des concepts non ambigus, des relations entre ces concepts sont indexées.
Les documents vidéo ont un caractère multimédia qui fait que la recherche par le contenu dans ceux-ci présente un certain nombre de spécificités. Par exemple, un concept donné (personne, objet...) peut être interprété de différentes manières : il peut être vu, il peut être entendu ou il peut être mentionné. Des combinaisons de ces cas peuvent également se produire. Naturellement, ces distinctions sont importantes pour l'utilisateur. Des requêtes impliquant le concept C comme par exemple : « rechercher les segments vidéos montrant une image de C » ou comme : « rechercher les segments vidéos dans lesquels on parle de C » sont susceptibles de produire des réponses tout à fait différentes. Dans le premier cas, on rechercherait C dans le contenu visuel tandis que dans le second, on rechercherait dans le contenu audio un segment dans la transcription duquel C est mentionné.
Cette étude s'inscrit dans un contexte de modélisation, indexation et recherche d'information multimédia. Au niveau théorique, notre contribution consiste à la proposition d'un modèle pour la représentation du contenu sémantique des documents vidéo. Ce modèle permet la prise en compte synthétique et intégrée des éléments d'informations issus de chacune des modalités (image, texte, son). L'instanciation de ce modèle est réalisée à l'aide du formalisme des graphes conceptuels. Le choix de ce formalisme est justifié par son expressivité et son adéquation au contexte d'indexation et de recherche d'information par le contenu.
Notre contribution au niveau expérimental consiste à l'implémentation (en partie) du prototype CLOVIS . Nous avons intégré le modèle proposé dans d'un système d'indexation et de recherche vidéo par le contenu pour évaluer ses apports en termes d'efficacité et de précision.
Mots-clés : Recherche d'information multimédia, indexation conceptuel, document vidéo, graphe conceptuel, ontologie.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography