Teses / dissertações sobre o tema "Compréhension du contenu multimédia"

Siga este link para ver outros tipos de publicações sobre o tema: Compréhension du contenu multimédia.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Compréhension du contenu multimédia".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Harrando, Ismail. "Representation, information extraction, and summarization for automatic multimedia understanding". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS097.

Texto completo da fonte
Resumo:
Que ce soit à la télévision ou sur internet, la production de contenu vidéo connaît un essor sans précédent. La vidéo est devenu non seulement le support dominant pour le divertissement, mais elle est également considérée comme l'avenir de l'éducation, l'information et le loisir. Néanmoins, le paradigme traditionnel de la gestion du multimédia s'avère incapable de suivre le rythme imposé par l'ampleur du volume de contenu créé chaque jour sur les différents canaux de distribution. Ainsi, les tâches de routine telles que l'archivage, l'édition, l'organisation et la recherche de contenu par les créateurs multimédias deviennent d'un coût prohibitif. Du côté de l'utilisateur, la quantité de contenu multimédia distribuée quotidiennement peut être écrasante ; le besoin d'un contenu plus court et plus personnalisé n'a jamais été aussi prononcé. Pour faire progresser l'état de l'art sur ces deux fronts, un certain niveau de compréhension du multimédia doit être atteint par nos ordinateurs. Dans cette thèse, nous proposons d'aborder les multiples défis auxquels sont confrontés le traitement et l'analyse automatique de contenu multimédia, en orientant notre exploration autour de trois axes : 1. la représentation: avec toute sa richesse et sa variété, la modélisation et la représentation du contenu multimédia peut être un défi en soi. 2. la description: La composante textuelle du multimédia peut être exploitée pour générer des descripteurs de haut niveau (annotation) pour le contenu en question. 3. le résumé: où nous étudions la possibilité d'extraire les moments d'intérêt de ce contenu, à la fois pour un résumé centré sur la narration et pour maximiser la mémorabilité
Whether on TV or on the internet, video content production is seeing an unprecedented rise. Not only is video the dominant medium for entertainment purposes, but it is also reckoned to be the future of education, information and leisure. Nevertheless, the traditional paradigm for multimedia management proves to be incapable of keeping pace with the scale brought about by the sheer volume of content created every day across the disparate distribution channels. Thus, routine tasks like archiving, editing, content organization and retrieval by multimedia creators become prohibitively costly. On the user side, too, the amount of multimedia content pumped daily can be simply overwhelming; the need for shorter and more personalized content has never been more pronounced. To advance the state of the art on both fronts, a certain level of multimedia understanding has to be achieved by our computers. In this research thesis, we aim to go about the multiple challenges facing automatic media content processing and analysis, mainly gearing our exploration to three axes: 1. Representing multimedia: With all its richness and variety, modeling and representing multimedia content can be a challenge in itself. 2. Describing multimedia: The textual component of multimedia can be capitalized on to generate high-level descriptors, or annotations, for the content at hand. 3. Summarizing multimedia: we investigate the possibility of extracting highlights from media content, both for narrative-focused summarization and for maximising memorability
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Nguyen, Minh Thang. "La compréhension orale en environnement multimédia". Rouen, 2003. http://www.theses.fr/2003ROUEL436.

Texto completo da fonte
Resumo:
Si l'intégration des technologies éducatives dans l'enseignement/apprentissage des langues présente un interêt certain, jusqu'à présnt, l'utilisation de ces nouveaux supports reste encore peu répandue, surtout au Vietnam. Dans ce travail, nous étudierons les aides offertes par les supports multimédias dans le domaine de l'enseignement/apprentissage de la compréhension orale. Cela étant dit, dans un premier temps, nous analyserons les travaux de recherche portant sur cette activité. Puis, nous aborderons les questions qui se posent lors de la mise en oeuvre d'un outil multimédia dans les pratiques pédagogiques. Enfin, à partir de notre expérience d'enseignant/concepteur, nous proposerons certains principes concernant la conception et l'élaboration d'un produit multimédia
Even if the integration of educational technology in teaching/learning languages is, indeed, of interest, up to present, the utilisation of such a new form of teaching aids istill not yet widely spread, as for the case of Vietnam. With this present study, we will closely look into the assistance provided by these multimedia teaching aids in the field of oral comprehension competency. Therefore, we will, firstly, analyse research work done in this field of studies. Next, we will try to trackle issues which have been questioned during the pedagogical process od designing a multimedia tool. Lastely, we will present some new principles concerning the conception and the elaboration of a multimedia product
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Turlier, Stéphane. "Accès et personnalisation du contenu multimédia dans un véhicule". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00683823.

Texto completo da fonte
Resumo:
L'arrivée récente de plateformes véhiculaires connectées à internet permet la diffusion de contenus d'infodivertissement en flux poussés et tirés pour les conducteurs et les passagers en situation de mobilité d'une manière comparable aux appareils de communication nomades actuels. Toutefois, la voiture constitue un terminal d'accès très différent d'un téléphone portable que ce soit en termes de caractéristiques techniques, mais aussi en matière d'usages. Cette thèse aborde le sujet de la fourniture personnalisée du contenu multimédia pour les automobilistes. Une étude des caractéristiques techniques des plateformes d'infodivertissement, des types de contenus et de métadonnées nous permet dans un premier temps de cerner les contraintes d'une architecture de fourniture individualisée pour un véhicule. La mise en perspective de ces contraintes nous permet d'établir une architecture de fourniture de contenu à la demande, implémentée dans un prototype. Nous abordons ensuite le problème de la personnalisation suivant deux axes complémentaires : D'une part, la personnalisation active qui fait intervenir une interface homme machine multimodale que nous étudions dans le cadre spécifique d'un navigateur de bibliothèque musicale en ligne permettant de créer facilement des listes de lectures multicritères dans un véhicule ; et d'autre part, la personnalisation passive du contenu qui fait intervenir une modélisation du contexte de l'utilisateur. Nous discutons de la répartition de composants fonctionnels permettant cette personnalisation passive et construisons une architecture répartie prenant en compte la définition individualisée de préférences contextuelles et son intégration dans l'architecture multimédia présentée plus haut. Les différentes solutions proposées sont enfin évaluées selon des méthodes expérimentales faisant intervenir des utilisateurs et des méthodes dites expertes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Benoit, Huet. "Étude de Contenus Multimédia: Apporter du Contexte au Contenu". Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00744320.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Delannoy, Pierre. "Performances des réseaux pour la diffusion de contenu multimédia". Evry, Télécom & Management SudParis, 2008. http://www.theses.fr/2008TELE0023.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Hidrio, Cédric. "Compréhension de documents multimédia : des illustrations statiques aux animations". Rennes 2, 2004. http://www.theses.fr/2004REN20040.

Texto completo da fonte
Resumo:
L'objectif de cette thèse était de mettre en évidence les processus cognitifs impliqués dans le traitement synchrone d'informations verbales auditives et d'illustrations. Pour cela 5 expériences ont été menées. Au cours de 4 expériences, nous avons comparé les effets de différents types d'illustrations présentées simultanément à une explication auditive sur la construction du modèle mental. L'impact de différents systèmes visant à faciliter la co-référenciation entre les informations analogiques issues des illustrations et les informations verbales a également été évalué. Ces systèmes ont pris la forme de mises en surbrillance, de segmentations donnant accès ou non à l'illustration et d'une manipulation du niveau de connaissance analogique préalablement à l'apprentissage cible. Dans le cadre d'une convention de recherche, une 5e expérience a permis d'évaluer les effets de la modalité de présentation des informations verbales et de la présence de démonstrations animées dans un site Web
The aim of this research was to give an account of the cognitive processes involved in the simultaneous processing of auditory verbal information and corresponding pictorial information. For that, 5 experiments were conducted. Four experiments aimed at comparing different types of illustrations simultaneously presented with an audio explanation on the establishment of mental models. We also evaluated the impact of different systems which aimed at facilitating the co-referencing between the informational sources (i. E. Verbal and pictorial). These systems consisted in highlighting pictorial elements, inserting pauses in the documents which gave access or not to pictorial information and manipulating subjects prior knowledge about a target learning. The 5th experiment took place in a research convention and aimed at optimising the presentation format of a Web site. For that, we evaluated the effects of two factors: the modality of verbal information and the presence of animated picture
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Turlier, Stéphane. "Accès et personnalisation de contenu multimédia à la demande dans un véhicule". Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00683823.

Texto completo da fonte
Resumo:
L'arrivée récente de plateformes automobiles connectées à internet permet la diffusion de contenus d'infodivertissement en flux poussés et tirés. Toutefois, la voiture constitue un terminal d'accès très différent d'un téléphone portable que ce soit en termes de caractéristiques techniques mais aussi en matière d'usages. Cette thèse aborde le sujet de la fourniture personnalisée du contenu multimédia pour les automobilistes. Une étude des caractéristiques techniques des plateformes d'infodivertissement, des types de contenus et de métadonnées nous permet dans un premier temps de cerner les contraintes d'une architecture de fourniture individualisée pour un véhicule. La mise en perspective de ces contraintes nous permet d'établir une architecture de fourniture de contenu à la demande, implémentée dans un prototype. Nous abordons ensuite le problème de la personnalisation suivant deux axes complémentaires : d'une part, la personnalisation active qui fait intervenir une interface homme machine multimodale que nous étudions dans le cadre spécifique d'un navigateur de bibliothèque musicale en ligne permettant de créer facilement des listes de lecture multicritères dans un véhicule ; et d'autre part, la personnalisation passive du contenu qui fait intervenir une modélisation du contexte de l'utilisateur. Nous discutons de la répartition de composants fonctionnels permettant cette personnalisation passive et construisons et évaluons une architecture répartie prenant en compte la définition individualisée de préférences contextuelles et son intégration dans l'architecture multimédia présentée plus haut
The recent advent of connected vehicle platforms permits the distribution of infotainment assets to drivers and passengers with pulled and pushed workflows in a comparable manner to current mobile handsets. However, vehicles differ technically from mobile phones in terms of capability and in terms of usage. This thesis tackles the subject of personalised media delivery to motorists. We first study the technical characteristics of vehicle infotainment platforms, media assets and metadata in order to identify the requirements of a media delivery architecture for a vehicle. Based on those constraints, we have specified a media on-demand framework, which has been developed in a prototype. Afterwards, we tackle the topic of personalisation in light of two complementary point of views : on the one hand, the driver can process active personalisation when using a proper human machine interface. We present a music browser for online libraries that allows the creation of multicriteria playlists while driving. On the other hand, we analyse passive personalisation, which makes use of the driving context. We discuss the repartition of the functional components and build up a distributed architecture, which takes into account individual context preferences and their integration in the multimedia architecture that we have formerly presented. Eventually, the different solutions are evaluated according to experimental and expert methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Kimiaei, Asadi Mariam. "Adaptation de Contenu Multimédia avec MPEG-21: Conversion de Ressources et Adaptation Sémantique de Scènes". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001615.

Texto completo da fonte
Resumo:
L'objectif de la thèse de doctorat présentée dans ce mémoire est de proposer des techniques et des méthodologies nouvelles, simples et efficaces pour l'adaptation de contenu multimédia à diverses contraintes de contexte d'utilisation. Le travail est basé sur des parties de la norme MPEG-21 en cours de définition, qui vise à définir les différents composants d'un système de distribution de contenus multimédia. Le travail de cette thèse est divisé en deux parties principales: l'adaptation de médias uniques, et l'adaptation sémantique de documents multimédia composés. Dans l'adaptation de médias uniques, le média est adapté aux contraintes du contexte de consommation, telles que les capacités du terminal, les préférences de l'utilisateur, les capacités du réseau, les recommandations de l'auteur, etc... Dans cette forme d'adaptation, le média est considéré hors de tout contexte de présentation multimédia structurée, ou indépendamment de la composition multimédia (scène) dans laquelle il est utilisé. Nous avons défini des outils et descripteurs, étendant les outils et descripteurs MPEG-21 DIA, pour la description des suggestions d'adaptation de médias (également appelée Conversion de Ressource), et la description des paramètres correspondants. Nous avons réalisé un moteur d'adaptation de médias qui fonctionne selon ces suggestions ainsi que selon les contraintes du contexte, et qui applique au media, la forme la plus appropriée d'adaptation avec des valeurs optimales des paramètres d'adaptation, afin d'obtenir la meilleure qualité d'utilisation. Durant cette partie du travail, nous avons apporté plusieurs contributions à la norme MPEG-21 DIA. Dans l'adaptation sémantique de documents multimédia structurés, nous avons considéré l'adaptation selon les relations temporelles, spatiales et sémantiques entre les objets média de la scène. En adaptant une présentation multimédia afin de préserver l'uniformité et la logique de la scène adaptée, le processus d'adaptation doit avoir accès à l'information sémantique de la présentation. Nous avons défini un langage d'extension de la description de scène pour l'expression de cette information sémantique, à base de descripteurs. Ces descripteurs contiennent des informations fournies par l'auteur de la scène multimédia, ou par n'importe quelle autre entité dans la chaîne de livraison multimédia. L'information incluse dans ces descripteurs aide le moteur d'adaptation à décider de la forme et de la nature optimales des adaptations qui doivent être appliquées au document. Cette information consiste en une information sémantique indépendante de chaque objet média, les dépendances sémantiques entre les objets média de la scène et les préférences sémantiques sur la fragmentation de scène. Pour la réalisation d'un tel système d'adaptation, nous avons utilisé SMIL 2.0 pour décrire nos scènes multimédia. Cependant, la méthodologie est indépendante de ce choix et peut être appliquée à d'autres types de documents multimédia, tels que MPEG-4 XMT. Nous avons implémenté un moteur d'adaptation sémantique expérimental, qui manipule et adapte des documents SMIL, en utilisant les informations sémantiques et physiques du contenu, ainsi que des contraintes de contexte.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Carlier, Axel. "Compréhension de contenus visuels par analyse conjointe du contenu et des usages". Thesis, Toulouse, INPT, 2014. http://www.theses.fr/2014INPT0085/document.

Texto completo da fonte
Resumo:
Dans cette thèse, nous traitons de la compréhension de contenus visuels, qu’il s’agisse d’images, de vidéos ou encore de contenus 3D. On entend par compréhension la capacité à inférer des informations sémantiques sur le contenu visuel. L’objectif de ce travail est d’étudier des méthodes combinant deux approches : 1) l’analyse automatique des contenus et 2) l’analyse des interactions liées à l’utilisation de ces contenus (analyse des usages, en plus bref). Dans un premier temps, nous étudions l’état de l’art issu des communautés de la vision par ordinateur et du multimédia. Il y a 20 ans, l’approche dominante visait une compréhension complètement automatique des images. Cette approche laisse aujourd’hui plus de place à différentes formes d’interventions humaines. Ces dernières peuvent se traduire par la constitution d’une base d’apprentissage annotée, par la résolution interactive de problèmes (par exemple de détection ou de segmentation) ou encore par la collecte d’informations implicites issues des usages du contenu. Il existe des liens riches et complexes entre supervision humaine d’algorithmes automatiques et adaptation des contributions humaines via la mise en œuvre d’algorithmes automatiques. Ces liens sont à l’origine de questions de recherche modernes : comment motiver des intervenants humains ? Comment concevoir des scénarii interactifs pour lesquels les interactions contribuent à comprendre le contenu manipulé ? Comment vérifier la qualité des traces collectées ? Comment agréger les données d’usage ? Comment fusionner les données d’usage avec celles, plus classiques, issues d’une analyse automatique ? Notre revue de la littérature aborde ces questions et permet de positionner les contributions de cette thèse. Celles-ci s’articulent en deux grandes parties. La première partie de nos travaux revisite la détection de régions importantes ou saillantes au travers de retours implicites d’utilisateurs qui visualisent ou acquièrent des con- tenus visuels. En 2D d’abord, plusieurs interfaces de vidéos interactives (en particulier la vidéo zoomable) sont conçues pour coordonner des analyses basées sur le contenu avec celles basées sur l’usage. On généralise ces résultats en 3D avec l’introduction d’un nouveau détecteur de régions saillantes déduit de la capture simultanée de vidéos de la même performance artistique publique (spectacles de danse, de chant etc.) par de nombreux utilisateurs. La seconde contribution de notre travail vise une compréhension sémantique d’images fixes. Nous exploitons les données récoltées à travers un jeu, Ask’nSeek, que nous avons créé. Les interactions élémentaires (comme les clics) et les données textuelles saisies par les joueurs sont, comme précédemment, rapprochées d’analyses automatiques des images. Nous montrons en particulier l’intérêt d’interactions révélatrices des relations spatiales entre différents objets détectables dans une même scène. Après la détection des objets d’intérêt dans une scène, nous abordons aussi le problème, plus ambitieux, de la segmentation
This thesis focuses on the problem of understanding visual contents, which can be images, videos or 3D contents. Understanding means that we aim at inferring semantic information about the visual content. The goal of our work is to study methods that combine two types of approaches: 1) automatic content analysis and 2) an analysis of how humans interact with the content (in other words, usage analysis). We start by reviewing the state of the art from both Computer Vision and Multimedia communities. Twenty years ago, the main approach was aiming at a fully automatic understanding of images. This approach today gives way to different forms of human intervention, whether it is through the constitution of annotated datasets, or by solving problems interactively (e.g. detection or segmentation), or by the implicit collection of information gathered from content usages. These different types of human intervention are at the heart of modern research questions: how to motivate human contributors? How to design interactive scenarii that will generate interactions that contribute to content understanding? How to check or ensure the quality of human contributions? How to aggregate human contributions? How to fuse inputs obtained from usage analysis with traditional outputs from content analysis? Our literature review addresses these questions and allows us to position the contributions of this thesis. In our first set of contributions we revisit the detection of important (or salient) regions through implicit feedback from users that either consume or produce visual contents. In 2D, we develop several interfaces of interactive video (e.g. zoomable video) in order to coordinate content analysis and usage analysis. We also generalize these results to 3D by introducing a new detector of salient regions that builds upon simultaneous video recordings of the same public artistic performance (dance show, chant, etc.) by multiple users. The second contribution of our work aims at a semantic understanding of fixed images. With this goal in mind, we use data gathered through a game, Ask’nSeek, that we created. Elementary interactions (such as clicks) together with textual input data from players are, as before, mixed with automatic analysis of images. In particular, we show the usefulness of interactions that help revealing spatial relations between different objects in a scene. After studying the problem of detecting objects on a scene, we also adress the more ambitious problem of segmentation
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Benmokhtar, Rachid. "Fusion multi-niveaux pour l'indexation et la recherche multimédia par le contenu sémantique". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005321.

Texto completo da fonte
Resumo:
Aujourd'hui, l'accès aux documents dans les bases de données, d'archives et sur Internet s'effectue principalement grâce à des données textuelles : nom de l'image ou mots-clés. Cette recherche est non exempte de fautes plus ou moins graves : omission, orthographe, etc. Les progrès effectués dans le domaine de l'analyse d'images et de l'apprentissage automatique permettent d'apporter des solutions comme l'indexation et la recherche à base des caractéristiques telles que la couleur, la forme, la texture, le mouvement, le son et le texte. Ces caractéristiques sont riches en informations et notamment d'un point de vue sémantique. Cette thèse s'inscrit dans le cadre de l'indexation automatique par le contenu sémantique des documents multimédia: plans vidéo et images-clés. L'indexation consiste à extraire, représenter et organiser efficacement le contenu des documents d'une base de données. L'état de l'art du domaine est confronté au «fossé sémantique» qui sépare les représentations visuelles brutes (bas-niveau) et conceptuelles (haut-niveau). Pour limiter les conséquences de cette problématique, nous avons introduit dans le système plusieurs types de descripteurs, tout en prenant à notre avantage les avancées scientifiques dans le domaine de l'apprentissage automatique et de la ``fusion multi-niveaux''. En effet, la fusion est utilisée dans le but de combiner des informations hétérogènes issues de plusieurs sources afin d'obtenir une information globale, plus complète, de meilleure qualité, permettant de mieux décider et d'agir. Elle peut être appliquée sur plusieurs niveaux du processus de classification. Dans cette thèse, nous avons étudié la fusion bas-niveau (précoce), la fusion haut-niveau (tardive), ainsi qu'à un niveau décisionnel basé sur l'ontologie et la similarité inter-concepts dit de raisonnement. Les systèmes proposés ont été validés sur les données de TRECVid (projet NoE K-Space) et les vidéos de football issues d'Orange-France Télécom Labs (projet CRE-Fusion). Les résultats révèlent l'importance de la fusion sur chaque niveau du processus de classification, en particulier, l'usage de la théorie des évidences.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Hamroun, Mohamed. "Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédia". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0372.

Texto completo da fonte
Resumo:
Suite aux derniers progrès technologiques, la quantité de données multimédias ne cesse d'augmenter. Dans ce contexte, le problème qui se pose est comment exploiter efficacement ces données ? il est nécessaire de mettre en place des outils facilitant leur accès et leur manipulation.Pour répondre à ces besoins, nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur "PMC" et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA).Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG.Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions.Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image
Due to the latest technological advances, the amount of multimedia data is constantly increasing. In this context, the problem is how to effectively use this data? it is necessary to set up tools to facilitate its access and manipulation.To achieve this goal, we first propose an indexation and retrieval model for video shots (or images) by their visual content (ISE). The innovative features of ISE are as follows: (i) definition of a new descriptor "PMC" and (ii) application of the genetic algorithm (GA) to improve the retrieval (PMGA).Then, we focus on the detection of concepts in video shots (LAMIRA approach). In the same context, we propose a semi-automatic annotation method for video shots in order to improve the quality of indexation based on the GA.Then, we provide a semantic indexation method separating the data level from a conceptual level and a more abstract, contextual level. This new system also incorporates mechanisms for expanding the request and relevance feedback. To add more fluidity to the user query, the user can perform a navigation using the three levels of abstraction. Two systems called VISEN and VINAS have been set up to validate these last positions.Finally, a SIRI Framework was proposed on the basis of a multi-level indexation combining our 3 systems: ISE, VINAS and VISEN. This Framework provides a two-dimensional representation of features (high level and low level) for each image
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Harb, Hadi. "Classification du signal sonore en vue d'une indexation par le contenu des documents multimédia". Ecully, Ecole centrale de Lyon, 2003. http://bibli.ec-lyon.fr/exl-doc/hharb.pdf.

Texto completo da fonte
Resumo:
Les humains ont une aptitude remarquable de classifier les signaux sonores en des classes : musique, parole, applaudissement, explosion, etc. . . Face à une profusion de documents multimédias, nous proposons dans cette thèse de développer des machines de perception auditive automatiques dotées des capacités de classification sonore similaires à celles des humains. Nous suivons une approche inspirée par quelques études sur la perception humaine des classes sémantiques sonores du contexte de multimédia et nous proposons ainsi un modèle de mémoire sonore qui est à la base d'un espace de représentation du signal, nommé espace MGI (Modélisation Gaussienne Incrémentale). Un comité de réseaux de neurones est couplé à l'espace MGI afin de constituer un système de classification du signal sonore. Ce système a permis efficacement la classification en musique/parole, homme/femme, action/non-action, genre de musique, ainsi qu'une structuration des vidéos en des "scène sonores"
Humans have a remarkable ability to categorise audio signals into classes, such as speech, music, explosion, etc. . . The thesis studies the capacity of developing audio classification algorithms inspired by the human perception of the audio semantic classes in the multimedia context. A model of short therm auditory memory is proposed in order to explain some psychoacoustic effects. The memory model is then simplified to constitute the basis of the Piecewise Gaussian Modelling (PGM) features. The PGM features are coupled to a mixture of neural networks to form a general audio signal classifier. The classifier was successfully applied to speech/music classification, gender identification, action detection and musical genre recognition. A synthesis of the classification effort was used in order to structure a video into "audio scenes" and "audio chapters". This work has permitted the development of an autoamtic audio indexer prototype, CYNDI
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Merhy, Liliane. "La compréhension orale, médias et multimédia, dans l'enseignement/apprentissage du français langue étrangère". Nancy 2, 2006. http://www.theses.fr/2006NAN21010.

Texto completo da fonte
Resumo:
Par delà des discours favorables ou critiques, l'intégration des nouvelles technologies rencontre toujours des obstacles dans le domaine de l'enseignement/apprentissage des langues en général et de la compréhension orale en particulier. Notre recherche consiste à analyser le rôle des médias et des nouvelles technologies dans les classes de langues, et des potentialités des nouvelles technologies à améliorer l'aptitude de la compréhension orale chez les apprenants, ainsi que l'ergonomie du travail au sein du contexte universitaire. Une enquête menée auprès des apprenants et des enseignants dans le département du Français langue Etrangère (le DeFLE à Nancy 2 en France et l'Institut des Langues à Tichrine à Lattaquié en Syrie), nous a permis de comprendre les raisons pour lesquelles l'intégration des nouvelles technologies pose encore des problèmes ce qui n'est pas le cas pour les médias (télévision, radio, vidéo)
Irrespective of favourable or critical assesments, the integration of ICTs in language teaching/learning in general and listening comprehension in particular is still running into difficulties. The research described in this dissertation consists in analyzing the role of the media and ICTs in language classes, their potential for improving learners' listening comprhension and the ergonomics of work in an academic context. An enquiry among Français Langue Etrangère, DeFLE at the University Nancy 2 and the Institut des Langues, University Tichrine of Lattaquié in Syria) helped us to understand why the integration of ICTs is still problematic, which is not the case for the media (television, radio, video)
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Layaïda, Nabil. "Représentation et analyses de contenu et de programmes Web". Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00872752.

Texto completo da fonte
Resumo:
Aujourd'hui, les contenus et les applications Web sont devenus la principale interface pour effectuer toutes sortes de tâches de la vie quotidienne comme déclarer et payer les impôts, réserver des billets d'avion ou de train, planifier des vacances, effectuer des achats, gérer les comptes bancaires, etc. En conséquence, il devient de plus en plus important d'étudier leurs fondements, d'améliorer leurs capacités, de faciliter leur conception, de vérifier leur fonctionnement, de les optimiser automatiquement et les rendre plus souples et adaptables aux usages et aux différentes plateformes. Dans ce document, nous décrivons d'abord mes activités professionnelles, concernant les années 1998 à 2012. La première partie de ce document contient un résumé de mes activités de recherche, d'encadrement, d'enseignement et charges administrative et collective, ainsi qu'un résumé de mes principaux résultats scientifiques. Dans le reste du document, nous introduisons une logique de raisonnement sur les arbres finis, une procédure de décision correcte et complète pour vérifier la satisfaisabilité d'une formule de la logique ainsi que d'une mise en œuvre efficace en pratique. La logique est une variante du mu-calcul adaptée aux arbres finis et équipée avec des modalités arrières et des nominaux. Ensuite, nous considérons le problème de l'évolution des schémas XML. Dans le contexte en constante évolution du Web, les schémas XML changent continuellement afin de faire face à l'évolution naturelle des entités qu'ils décrivent. Les modifications de schémas peuvent avoir des conséquences importantes dans la mesure où les documents existants peuvent devenir invalides et la programmes les manipulant incorrectes. Nous proposons un cadre unificateur pour déterminer les effets de l'évolution des schémas XML à la fois sur la validité des documents et des requêtes contenues dans ces programmes. Dans la dernière partie du document, nous considérons une algèbre de type équipée de la récursivité, du produit cartésien, des fonctions, de l'intersection, de l'union, et du complément ainsi que des variables de type et une quantification universelle implicite sur ces variables. Nous considérons la relation de sous-typage récemment définie par Castagna et Xu sur des expressions de cette algèbre de type et montrons que le sous-typage peut être décidé avec une complexité EXPTIME et implémenté efficacement en pratique clôturant ainsi à une question ouverte dans la littérature.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Pleşca, Cezar. "Supervision de contenus multimédia : adaptation de contenu, politiques optimales de préchargement et coordination causale de flux". Toulouse, INPT, 2007. http://ethesis.inp-toulouse.fr/archive/00000499/.

Texto completo da fonte
Resumo:
La qualité des systèmes d'informations distribués dépend de la réactivité du service, de la pertinence et de la cohérence des informations présentées vis-à-vis des centres d'intérêt de l'utilisateur. Dans un premier volet, nous améliorons la délivrance de contenus hypermédia et utilisons des modèles décisionnels markoviens 'PDM) pour dériver des politiques de préchargement agressives optimales intégrant les habitudes des utilisateurs et les ressources disponibles. Dans le deuxième volet, consacré aux contextes partiellement observables, nous montrons qu'une politique d'adapatation à des ressources limitées (modèle PDM) peut être nuancée selon l'intérêt des utilisateurs, en utilisant un PDM partiellement observable (PDMPO). Le troisième volet concerne le contexte des applications multimédia interactives réparties. Nous proposons un service de cohérence flexible capable de gérer plusieurs ordres partiels (fifo, causal, total) et montrons de meilleures performances par rapport à la causalité classique ou la [delta]-causalité
Distributed systems information quality depends on service responsiveness, data consistency and its relevance according to user interests. The first part of this study deals with hypermedia content delivery and uses Markov Decision Processes (MDP) to derive aggresive optimal prefetching policies integrating both users habits and ressource availability. The second part addresses the partial observable contexts. We show how a ressource-based policy adaptation (MDP model) can be modulated according to user interest, using partially observable MDP (POMDP). Finally, the third part is placed in distributed multimedia applications context. We propose a coordination-level middleware for supporting flexible consistency. Our simulations show that its ability to handle several partial orders (e. G. Fifo, causal, total) makes it better than classic or [delta)-causality
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0014/document.

Texto completo da fonte
Resumo:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Menant, William. "Contribution à l'analyse des orientations stratégiques et à la compréhension du discours de l'industrie pharmaceutique". Caen, 2005. http://www.theses.fr/2005CAEN0621.

Texto completo da fonte
Resumo:
Cette thèse a pour objectif dans un même travail de recherche, d'analyser les orientations stratégiques des groupes pharmaceutiques et assimilés, ainsi que de mieux comprendre le discours stratégique des groupes pharmaceutiques et leurs stakeholders (parties prenantes). Nous avons dans un premier temps utilisé un ensemble d'outils classiques en management stratégique, puis en second temps, nous avons choisi une méthode d'analyse d'une autre discipline : la sociologie. Nous nous sommes donc intéressés plus particulièrement aux cartes d'influence parce qu'elles abordent différemment l'analyse du discours, prenant en compte une certaine souplesse dans le traitement (flexibilité de la reconnaissance des interactions dans un contexte sur la reconnaissance de liens pris isolément). Notre première méthode d'analyse a pour principes fondateurs les éléments théoriques présents dans la littérature en management stratégique parmi lesquels nous avons sélectionné des concepts liés spécifiquement avec notre projet de recherche et des outils appropriés : analyse en composante principale (ACP), les tests de comparaisons tels que le Khi 2, le t de Student ou l'analyse de variance, puis la validation des regroupements constatés à travers un outil plus synthétique : l'analyse discriminante. De plus, notre seconde méthode d'analyse en vue de réaliser la reconnaissance des discours, s'appuie sur les cartes d'influence adaptées de l'analyse de contenu qui servent de points d'ancrage à la reconnaissance des interrelations entre des concepts tels que l'éthique, l'innovation, l'intention stratégique, le développement durable en relation avec les thèmes contenus au sein des discours des différents acteurs. Nous traitons l'attitude des groupes pharmaceutiques entre paradoxes et légitimité, permettant d'éclairer les concepts précédemment évoqués sur leur contexte (prospective) en vue de préparer les groupes à envisager différemment leur discours versus leurs actions à propos de la Responsabilité Sociale de l'Entreprise (enjeux stratégiques), prenant potentiellement en compte les exigences et les doléances des stakeholders. L'implémentation des méthodes et leur validation sur un terrain d'investigation porteur ont donné des résultats encourageants. Nous analysons ensuite ces résultats et concluons sur les perspectives prometteuses de ce type de recherche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Ben, Abdelali Abdessalem. "Etude de la conception d’architectures matérielles dédiées pour les traitements multimédia : indexation de la vidéo par le contenu". Dijon, 2007. http://www.theses.fr/2007DIJOS075.

Texto completo da fonte
Resumo:
Cette thèse constitue une contribution à l’étude de l’indexation automatique de la vidéo par le contenu en vue de la conception d’architectures matérielles dédiées à ce type d’application multimédia. L’indexation de la vidéo par le contenu présente un domaine de grande importance et qui est sans cesse en développement pour différents types d’applications telles que l’Internet, la TV interactive, les supports vidéo portables (PVR) et les applications de sécurité. L’étude proposée est effectuée à travers des exemples concrets de techniques d’analyse du contenu AV pour l’indexation de la vidéo et selon différents aspects applicatifs, technologiques et méthodologiques. Elle s’inscrit dans le cadre de la conception d’architectures matérielles dédiées et de l’exploitation des nouvelles technologies de systèmes embarqués pour les applications multimédia récentes. Un intérêt particulier est consacré à la technologie reconfigurable et aux nouvelles possibilités et moyens d’utilisation des circuits FPGA. La première phase de cette thèse a été consacrée à l’étude du domaine de l’indexation automatique de la vidéo par le contenu. Il s’agit de l’étude des caractéristiques et des nouveaux besoins des systèmes d’indexation au travers des approches et des techniques actuellement utilisées ainsi que les champs d’application des nouvelles générations de ces systèmes. Ceci afin de montrer l’intérêt d’avoir recours à de nouvelles architectures et à de nouvelles solutions technologiques permettant de supporter les exigences de ce domaine. La deuxième phase de ce travail a été réservée à la validation et à l’optimisation d’un ensemble de descripteurs visuels de la norme MPEG-7 pour la segmentation temporelle de la vidéo. Ceci constitue une étude de cas par l’étude d’un exemple important de techniques d’analyse du contenu AV utilisées dans une grande diversité d’applications. L’étude proposée constitue également une étape de préparation à l’implémentation matérielle de ces techniques dans le contexte de conception d’accélérateurs matériels pour l’indexation automatique de la vidéo par le contenu en temps réel. Dans ce cadre différentes transformations algorithmiques ont été proposées dans le but d’assurer une meilleure Adéquation Algorithme Architecture (AAA) et d’améliorer les performances des algorithmes étudiés. La troisième phase de ce travail a été consacrée à l’étude de la conception d’opérateurs matériels dédiés pour les techniques d’analyse du contenu AV ainsi qu’à l’étude de l’exploitation des nouvelles technologies des systèmes reconfigurables pour la mise en œuvre de SORC pour l’indexation automatique de la vidéo. Plusieurs architectures matérielles ont été proposées pour les descripteurs étudiés et différents concepts liés à l’exploitation de la technologie reconfigurable et les SORC ont été explorés (méthodologies et outils associés pour la conception de tels systèmes sur puce, technologie et méthodes pour la reconfiguration dynamique et partielle, plateformes matérielles à base d’FPGA, structure d’un SORC pour l’indexation de la vidéo par le contenu, etc. )
This thesis constitutes a contribution to the study of content based automatic video indexing aiming at designing hardware architectures dedicated to this type of multimedia application. The content based video indexing represents an important domain that is in constant development for different types of applications such as the Internet, the interactive TV, the personal video recorders (PVR) and the security applications. The proposed study is done through concrete AV analysis techniques for video indexing and it is carried out according to different aspects related to application, technology and methodology. It is included in the context of dedicated hardware architectures design and exploitation of the new embedded systems technologies for the recent multimedia applications. Much more interest is given to the reconfigurable technology and to the new possibilities and means of the FPGA devices utilization. The first stage of this thesis is devoted to the study of the automatic content based video indexing domain. It is about the study of features and the new needs of indexing systems through the approaches and techniques currently used as well as the application fields of the new generations of these systems. This is in order to show the interest of using new architectures and technological solutions permitting to support the new requirements of this domain. The second stage is dedicated to the validation and the optimization of some visual descriptors of the MPEG-7 standard for the video temporal segmentation. This constitutes a case study through an important example of AV content analysis techniques. The proposed study constitutes also a stage of preparation for the hardware implementation of these techniques in the context of hardware accelerators design for real time automatic video indexing. Different Algorithm Architecture Adequacy aspects have been studied through the proposition of various algorithmic transformations that can be applied for the considered algorithms. The third stage of this thesis is devoted to study the design of dedicated hardware operators for video content analysis techniques as well as the exploitation of the new reconfigurable systems technologies for designing SORC dedicated to the automatic video indexing. Several hardware architectures have been proposed for the MPEG-7 descriptors and different concepts related to the exploitation of reconfigurable technology and SORC have been studied as well (methodologies and tools for designing such systems on chip, technology and methods for the dynamic and partial reconfiguration, FPGA based hardware platforms, SORC structure for video indexing, etc. )
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Hinard, Yoann. "Sécurisation et tarification de la diffusion de contenu en multicast". Compiègne, 2008. http://www.theses.fr/2008COMP1766.

Texto completo da fonte
Resumo:
IP multicast constitue une solution efficace pour transmettre des flux vidéo à un ensemble de récepteurs. Technologie maintenant indispensable dans les réseaux privés et cloisonnés comme ceux des opérateurs, IP multicast ne dispose pas d'un déploiement à grande échelle sur le réseau ouvert Internet. Dans cette thèse, nous traitons deux problèmes limitant le déploiement du multicast à grande échelle : la possibilité d'effectuer une tarification et contrôle d'accès, et la possibilité de sécuriser le contenu tout en étant tolérant aux pertes de paquets. Ainsi, nous proposons une architecture sécurisée de tarification pour la diffusion de contenus en multicast. Nous proposons aussi un schéma de chaînage de hash-code per-mettant d'amortir la surcharge d'une signature numérique sur un grand nombre de paquets et ainsi assurer l'authentification et la non répudiation de la source des données même en présence de pertes de paquets Importantes
IP multicast is an effective way to distribute vidéo content to large group of receivers. This technology is now widely used in the closed and private networks of the telecoms operators. However, IP multicast is not widely deployed over the Internet which is by nature an open network. In this thesis, we deal with two issues preventing wide deployment of IP multicast : ability to perform accounting and access control, and ability to secure the content distributed to large groups. We define a generic Authentication, Authorization and Accounting architecture for multicast content distribution which is based on the Diameter base protocol standardized by the IETF. We also define a new hash-code chaining scheme which allow to amortize the overhead of a digital signature on many other packets. This scheme allows data origin authentication and non-repudiation even with high packet loss ratio
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Abdel, Wahab Shaimaa. "Le multimédia en maternelle : tâches, activités et apprentissage du langage". Thesis, Paris 8, 2016. http://www.theses.fr/2016PA080018.

Texto completo da fonte
Resumo:
Le but de cette recherche est d’étudier l’impact de l’apprentissage assisté par le multimédia sur le développement du vocabulaire et sur la compréhension, chez les enfants du préscolaire, par rapport à l’apprentissage traditionnel. Elle vise également à étudier l’impact des différents modes d’interaction dans les environnements informatisés, sur le développement du langage et sur la compréhension de l’histoire chez l’enfant.L’apprentissage du langage est un enjeu fort de réussite scolaire ultérieure pour les élèves de l’école maternelle. Cette recherche doctorale vise à étudier l’impact, sur l’acquisition de certaines compétences concernant le langage, de l’introduction d’environnements informatisés en dernière année d’école maternelle (grande section, enfant de 5 à 6 ans). Nous nous attachons particulièrement à l’acquisition, par les enfants, des connaissances linguistiques et des compétences langagières, en matière de lexique et à travers la réception et la compréhension de récits. Cette étude s’attache d’abord à faire le bilan des recherches et l’analyse des logiciels existants (les histoires électroniques) en français. Elle utilise ensuite un logiciel spécifique (Un Prince à l’école) dans des classes maternelles de région parisienne, pour étudier l’effet de son emploi dans le développement du vocabulaire (un pré/post-test) et la compréhension du récit (un post-test) pour ces élèves. Nous étudions (i) l’impact de l’interaction avec l’histoire sur support électronique vs l’histoire sur support papier, (ii) l’impact de l’interaction (individuelle vs collaborative) avec l’histoire sur support électronique sur le développement du vocabulaire et la compréhension du récit
The purpose of this research is to study the impact of multimedia assisted learning on vocabulary development and comprehension among children of preschool, compared to traditional learning. It also aims to study the impact of different modes of interaction in computerized environments on language development and comprehension of the story among children of preschool.Learning the language is a major challenge for future academic success of students in kindergarten. This doctoral research aims to study the impact on the acquisition of certain skills on the language, and introduction of computerized environments in the final year of kindergarten (KG2, 5 to 6 year-olds). The study focuses particularly on the children acquisition of language skills in vocabulary and through the reception and comprehension of narratives. This work aims to take stock of existing research and analyses software (electronic stories) in French. It then uses special software (Un Prince à l’école) in the Paris region, and study the effectiveness in vocabulary development (pre/post test) and comprehension of the story (post-test) for these children. We studied (i) the impact of the interaction with the e-story vs. the story on paper, (ii) the impact of the interaction (individual vs. collaborative) with e-story on vocabulary development and comprehension of the story
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Delezoide, Bertrand. "Modèles d'indéxation multimédia pour la description automatique de films de cinéma". Paris 6, 2006. http://www.theses.fr/2006PA066108.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Papadopoulos, Hélène. "Estimation conjointe d'information de contenu musical d'un signal audio". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00548952.

Texto completo da fonte
Resumo:
Depuis quelques années, nous assistons à l'augmentation croissante de gigantesques collections de musique en ligne. Ce phénomène a attiré l'attention de nombreux chercheurs. En effet, le besoin urgent de développer des outils et des méthodes qui permettent d'interagir avec ces énormes bibliothèques de musique numérique pose des défis scientifiques complexes. Le domaine de la recherche d'information musicale (Music Information Retrieval, MIR) est ainsi devenu très actif depuis une dizaine d'années. Ce domaine général inclut celui de l'indexation musicale dans lequel s'inscrit cette thèse qui a pour but d'aider au stockage, à la diffusion et la consultation des gigantesques collections de musique en ligne. Ce domaine ouvre de nombreuses perspectives pour l'industrie et la recherche liées aux activités multimédia. Dans cette thèse, nous nous intéressons au problème de l'extraction automatique d'informations de contenu d'un signal audio de musique. La plupart des travaux existants abordent ce problème en considérant les attributs musicaux de manière indépendante les uns vis-à-vis des autres. Cependant les morceaux de musique sont extrèmement structurés du point de vue de l'harmonie et du rythme et leur estimation devrait se faire en tenant compte du contexte musical, comme le fait un musicien lorsqu'il analyse un morceau de musique. Nous nous concentrons sur trois descripteurs musicaux liés aux structures harmoniques, métriques et tonales d'un morceau de musique. Plus précisément, nous cherchons à en estimer la progression des accords, les premiers temps et la tonalité. L'originalité de notre travail consiste à construire un modèle qui permet d'estimer de manière conjointe ces trois attributs musicaux. Notre objectif est de montrer que l'estimation des divers descripteurs musicaux est meilleure si on tient compte de leurs dépendances mutuelles que si on les estime de manière indépendante. Nous proposons au cours de ce travail un ensemble de protocoles de comparaison, de métriques de performances et de nouvelles bases de données de test afin de pouvoir évaluer les différentes méthodes étudiées. Afin de valider notre approche, nous présentons également les résultats de nos participations à des campagnes d'évaluation internationales. Dans un premier temps, nous examinons plusieurs représentations typiques du signal audio afin de choisir celle qui est la plus appropriée à l'analyse du contenu harmonique d'un morceau de musique. Nous explorons plusieurs méthodes qui permettent d'extraire un chromagram du signal et les comparons à travers un protocole d'évaluation original et une nouvelle base de données que nous avons annotée. Nous détaillons et expliquons les raisons qui nous ont amenés à choisir la représentation que nous utilisons dans notre modèle. Dans notre modèle, les accords sont considérés comme un attribut central autour duquel les autres descripteurs musicaux s'organisent. Nous étudions le problème de l'estimation automatique de la suite des accords d'un morceau de musique audio en utilisant les _chromas_ comme observations du signal. Nous proposons plusieurs méthodes basées sur les modèles de Markov cachés (hidden Markov models, HMM), qui permettent de prendre en compte des éléments de la théorie musicale, le résultat d'expériences cognitives sur la perception de la tonalité et l'effet des harmoniques des notes de musique. Les différentes méthodes sont évaluées et comparées pour la première fois sur une grande base de données composée de morceaux de musique populaire. Nous présentons ensuite une nouvelle approche qui permet d'estimer de manière simultanée la progression des accords et les premiers temps d'un signal audio de musique. Pour cela, nous proposons une topologie spécifique de HMM qui nous permet de modéliser la dépendance des accords par rapport à la structure métrique d'un morceau. Une importante contribution est que notre modèle peut être utilisé pour des structures métriques complexes présentant par exemple l'insertion ou l'omission d'un temps, ou des changements dans la signature rythmique. Le modèle proposé est évalué sur un grand nombre de morceaux de musique populaire qui présentent des structures métriques variées. Nous comparons les résultats d'un modèle semi-automatique, dans lequel nous utilisons les positions des temps annotées manuellement, avec ceux obtenus par un modèle entièrement automatique où la position des temps est estimée directement à partir du signal. Enfin, nous nous penchons sur la question de la tonalité. Nous commençons par nous intéresser au problème de l'estimation de la tonalité principale d'un morceau de musique. Nous étendons le modèle présenté ci-dessus à un modèle qui permet d'estimer simultanément la progression des accords, les premiers temps et la tonalité principale. Les performances du modèle sont évaluées à travers des exemples choisis dans la musique populaire. Nous nous tournons ensuite vers le problème plus complexe de l'estimation de la tonalité locale d'un morceau de musique. Nous proposons d'aborder ce problème en combinant et en étendant plusieurs approches existantes pour l'estimation de la tonalité principale. La spécificité de notre approche est que nous considérons la dépendance de la tonalité locale par rapport aux structures harmonique et métrique. Nous évaluons les résultats de notre modèle sur une base de données originale composée de morceaux de musique classique que nous avons annotés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Reboud, Alison. "Towards automatic understanding of narrative audiovisual content". Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS398.pdf.

Texto completo da fonte
Resumo:
Aujourd'hui les histoires se disent en ligne et souvent par le biais de vidéos. Comprendre ces histoires reste un défi pour les systèmes automatiques. Avec la multimodalité comme thème transversal, cette thèse décompose la tâche de "compréhension" en traitant les défis suivants: prédire le degré de mémorabilité, résumer et modéliser la narration des contenus audiovisuels
Modern storytelling is digital and video-based. Understanding the stories contained in videos remains a challenge for automatic systems. Having multimodality as a transversal theme, this research thesis breaks down the "understanding" task into the following challenges: Predicting memorability, summarising and modelling stories from audiovisual content
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0014.

Texto completo da fonte
Resumo:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Métayer, Natacha. "Compréhension et stratégies d’exploration des documents pédagogiques illustrés". Thesis, Rennes 2, 2016. http://www.theses.fr/2016REN20001/document.

Texto completo da fonte
Resumo:
Il est aujourd’hui plus aisé de proposer dans un même document d’apprentissage de nombreuses sources d’information présentées sous des formats différents. Si présenter plusieurs médias peut apporter des bénéfices en termes de performances d’apprentissage, traiter efficacement ces différentes sources d’information est une activité complexe. C’est pourquoi, proposer des documents guidant l’apprenant lors de sa consultation peut s’avérer nécessaire afin de favoriser la construction d’un modèle mental de qualité. Les études empiriques menées au cours de cette thèse se sont attachées à déterminer quels formats étaient les plus efficaces tout en augmentant progressivement le guidage au sein du document. Ainsi, ont été testés : la position de l’illustration par rapport au texte, l’effet de la consigne, la segmentation du texte et l’introduction d’un guidage via un contraste figure/fond. De plus, afin d’apporter de nouveaux éléments de réflexion quant à la manière dont les individus explorent un document d’apprentissage et l’impact de ces stratégies sur les performances, les mouvements oculaires des apprenants ont été enregistrés. Les résultats obtenus ont mis en évidence que les modifications du format de présentation des informations avaient un impact sur les stratégies de consultation du document notamment sur l’augmentation des transitions oculaires effectuées entre les textes et les illustrations. Cependant, seule la segmentation du texte sous forme de paragraphes sémantiques a permis d’obtenir des bénéfices en termes de compréhension
It is easier today to offer in one informative document many sources of information presented in different formats. Presenting various media can bring benefits in terms of learning performance, but dealing effectively with these different sources of information is complex. Therefore, offering documents guiding the learner when he is reading may be necessary to promote the construction of a qualitative mental model. Empirical studies that are conducted during this thesis endeavour to determine which formats are most effective while gradually increasing guidance within the document. Thus, four items are tested: the position of the picture relative to the text, the effect of the instructions, the text segmentation and the introduction of a guidance through a figure-ground contrast. Moreover, in order to bring new elements of reflection about how people explore an informative document and the impact of these strategies on performance, the eye movements of the learners were recorded. The results showed that changes in the format of information have an impact on the strategies of consultation of the document, including the increasing eye transitions between texts and illustrations. However, only the segmentation of the text in the form of semantic paragraphs brought benefits in terms of understanding
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Badr, Mehdi. "Traitement de requêtes top-k multicritères et application à la recherche par le contenu dans les bases de données multimédia". Phd thesis, Université de Cergy Pontoise, 2013. http://tel.archives-ouvertes.fr/tel-00978770.

Texto completo da fonte
Resumo:
Le développement des techniques de traitement des requêtes de classement est un axe de recherche très actif dans le domaine de la recherche d'information. Plusieurs applications nécessitent le traitement des requêtes de classement multicritères, telles que les méta-moteurs de recherche sur le web, la recherche dans les réseaux sociaux, la recherche dans les bases de documents multimédia, etc. Contrairement aux requêtes booléennes traditionnelles, dans lesquelles le filtrage est basé sur des prédicats qui retournent vrai ou faux, les requêtes de classement utilisent des prédicats de similarité retournant un score de pertinence. Ces requêtes spécifient une fonction d'agrégation qui combine les scores individuels produits par les prédicats de similarité permettant de calculer un score global pour chaque objet. Les k objets avec les meilleurs scores globaux sont retournés dans le résultat final. Dans cette thèse, nous étudions dans un premier temps les techniques et algorithmes proposés dans la littérature conçus pour le traitement des requêtes top-k multicritères dans des contextes spécifiques de type et de coût d'accès aux scores, et nous proposons un cadre générique capable d'exprimer tous ces algorithmes. Ensuite, nous proposons une nouvelle stratégie en largeur "breadth-first", qui maintient l'ensemble courant des k meilleurs objets comme un tout, à la différence des stratégies en profondeur habituelles qui se focalisent sur le meilleur candidat. Nous présentons un nouvel algorithme "Breadth-Refine" (BR), basé sur cette stratégie et adaptable à n'importe quelle configuration de type et de coût d'accès aux scores. Nous montrons expérimentalement la supériorité de l'algorithme BR sur les algorithmes existants. Dans un deuxième temps, nous proposons une adaptation des algorithmes top-k à la recherche approximative, dont l'objectif est de trouver un compromis entre le temps de recherche et la qualité du résultat retourné. Nous explorons l'approximation par arrêt prématuré de l'exécution et proposons une première étude expérimentale du potentiel d'approximation des algorithmes top-k. Dans la dernière partie de la thèse, nous nous intéressons à l'application des techniques top-k multicritères à la recherche par le contenu dans les grandes bases de données multimédia. Dans ce contexte, un objet multimédia (une image par exemple) est représenté par un ou plusieurs descripteurs, en général sous forme de vecteurs numériques qui peuvent être vus comme des points dans un espace multidimensionnel. Nous explorons la recherche des k plus proches voisins (k-ppv) dans ces espaces et proposons une nouvelle technique de recherche k-ppv approximative "Multi-criteria Search Algorithm " (MSA) basée sur les principes des algorithmes top-k. Nous comparons MSA à des méthodes de l'état de l'art dans le contexte des grandes bases multimédia où les données ainsi que les structures d'index sont stockées sur disque, et montrons qu'il produit rapidement un très bon résultat approximatif.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Jamin, Emmanuel. "La conception de documents audiovisuels : vers l'extraction sémantique et la réécriture interactive des archives multimédias". Paris 11, 2006. http://www.theses.fr/2006PA112215.

Texto completo da fonte
Resumo:
"La numérisation du document audiovisuel (DAV) améliore les techniques de stockage, ce qui potentialise des usages innovants d'exploitation du DAV. Notre objectif consiste donc à outiller les activités d'écriture audiovisuelle basées sur la réutilisation de fragments de vidéos. Suite à une analyse des pratiques documentaires, nous avons formalisé la tâche d'"écrilecture multimédia" en adaptant les modèles cognitifs de la production écrite. Cette tâche met en jeu le concepteur et le lecteur dans un double agencement narratif/discursif, où chacun interprète la matière informationnelle présentée. Au sein de cette relation, le document agit comme un vecteur de communication voire d'interaction. Ainsi, nous avons formalisé un modèle de document multimédia pour la conception qui supporte la norme MPEG7 ; il s'agit du "Scénario Interactif " (ScoI). Le ScoI est instrumenté dans un système interactif d'écrilecture multimédia connecté à un système de recherche d'information multimédia contextualisée. Nous avons donc adapté une méthode de recherche d'information afin d'extraire des fragments multimédias d'un corpus de documents semi-structurés et d'envisager une recomposition. Un processus dynamique d'interaction homme-machine oriente et assiste les choix de l'auteur dans la construction du document à produire, ou document cible. "
Digitalization of audio-visual documents (DAV) improves storage techniques, which boosts innovating uses of DAV exploitation. Thus, our aim is enrich the activities of audio-visual writing based on the re-use of video fragments. After an analysis of documentary practices, we formalized the task of "multi-media read-writing" by adapting cognitive models of writing. This task brings into play the originator and the reader in a double narrative/discursive fitting, where everyone interprets the informational matter which is being presented. Within this relation, the document acts like a vector of communication and even of interaction. Therefore, we formalized a multi-media model for audio-visual design that supports MPEG7 standardization; we are talking about the "Interactive Scenario" (ScoI). ScoI is a virtual document and a suitable pool for the integration of heterogeneous fragments. This model integrates knowledge on the media, on the design’s process and on the contents access methods. The scenario is instrumented on a multimedia writing interactive system which is connected to a search system for contextualized multimedia information. We thus adapted a method of information search in order to extract multimedia fragments from a corpus of semi-structured documents and considered a recombination. A dynamic human-computer interaction process directs and assists the choices of the author in the construction of the document to be produced, or target document
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Xie, Fuchun. "Tatouage sûr et robuste appliqué au traçage de documents multimédia". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00592126.

Texto completo da fonte
Resumo:
Cette thèse porte sur la conception d'une technique de tatouage sûr et robuste dans le contexte du traçage de documents multimédia, et propose un système complet du traçage de traîtres. Ces travaux s'appuient sur la technique de tatouage zéro-bit robuste 'Broken Arrows', dont nous proposons des améliorations afin de la rendre plus robuste, notamment à l'attaque de débruitage de A. Westfeld, et plus sûre. Sa sécurité est renforcée au regard des attaques connues et publiées, telles que l'attaque de regroupement de A. Westfeld et l'attaque d'estimation de sous-espace de P. Bas. Par ailleurs, nous étendons sa sécurité en considérant des attaques non publiées. Nous proposons ainsi une nouvelle technique de tatouage sûr, basé sur un test de décision 'a contrario' et une insertion avec maximisation sous contraintes d'imperceptibilité et de sécurité. Nous proposons dans le dernier chapitre un schéma complet de traçage de documents multimédia, basé sur les codes de Tardos en version q-aire symétrique et les techniques du tatouage améliorées mentionnées plus haut. Comme les techniques du tatouage sont très robustes, nous pouvons détecter plusieurs symboles en un seul bloc attaqué, ce qui nous permet de proposer deux méthodes d'accusation étendues pour le code de Tardos. Les études expérimentales montrent les bonnes performances de notre schéma de traçage, y compris face à des attaques jusqu'alors mal gérées comme la fusion de documents.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Daoudi, Imane. "Recherche par similarité dans les grandes bases de données multimédia : application à la recherche par le contenu dans les bases d'images". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0057/these.pdf.

Texto completo da fonte
Resumo:
L’émergence des données numériques multimédia ne cesse d’augmenter. L’accès, le partage, le stockage et la recherche de ces données sont devenues des besoins réels et les problématiques sont nombreuses et variées. Afin de rendre cette masse d’information facilement exploitable pour tout utilisateur, il est nécessaire de disposer de techniques d’indexation et de recherche rapides et efficaces. Mes travaux de thèse s’inscrivent dans le domaine des données multimédia et plus précisément des images fixes. L’objectif principal est de développer une méthode performante d’indexation et de recherche des k plus proches voisins (kppv) qui soit adaptée à la recherche d’image par le contenu et aux propriétés des descripteurs d’images (grand volume, grande dimension, hétérogénéité, etc. ). Il s’agit d’une part, d’apporter des réponses aux problèmes de passage à l’échelle et de la malédiction de la dimension et d’autre part de traiter les problèmes de mesure de similarité qui se posent, et qui sont liés à la nature des données manipulées. Notre première proposition consiste en l’utilisation d’une structure d’indexation multidimensionnelle basée sur l’approximation ou filtrage, par une amélioration de la méthode RA-Blocks. Elle repose sur un algorithme de découpage de l’espace de données qui améliore notablement la capacité de stockage de l’index ainsi que le temps de la recherche. Dans un deuxième temps, nous proposons une méthode d’indexation multidimensionnelle adaptée à des données hétérogènes (couleur, texture, forme). Notre méthode combine une technique non linéaire de la réduction de la dimension à une structure d’indexation multidimensionnelle basée sur l’approche approximation. Cette combinaison permet de répondre à travers, un formaliste unique, aux différents verrous que nous nous sommes fixés de lever
[The emergence of digital multimedia data is increasing. Access, sharing and retrieval of these data have become the real needs. This requires the use of powerful tools and search engine for fast and efficient access to data. The spectacular growth of technologies and numeric requires the use of powerful tools and search engine for fast and efficient access to data. My thesis work is in the field of multimedia data especially images. The main objectives is to develop a fast and efficient indexing and searching method of the k nearest neighbour which is adapted for applications in Content-based image retrieval (CBIR) and for properties of image descriptors (high volume, large dimension, etc. ). The main idea is on one hand, to provide answers to the problems of scalability and the curse of dimensionality and the other to deal with similarity problems that arise in indexing and CBIR. We propose in this thesis two different approaches. The first uses a multidimensional indexing structure based on approximation approach or filtering, which is an improvement in the RA-Blocks method. The proposed method is based on the proposal of an algorithm of subdividing the data space which improves the storage capacity of the index and the CPU times. In a second approach, we propose a multidimensional indexing method suitable for heterogeneous data (colour, texture, shape). The second proposed method combines a non linear dimensionality reduction technique with a multidimensional indexing approach based on approximation. This combination allows one hand to deal with the curse of dimensionality scalability problems and also to exploit the properties of the non-linear space to find suitable similarity measurement for the nature of manipulated data. ]
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Gosselin, Philippe-Henri. "Apprentissage interactif pour la recherche par le contenu dans les bases multimédias". Habilitation à diriger des recherches, Université de Cergy Pontoise, 2011. http://tel.archives-ouvertes.fr/tel-00660316.

Texto completo da fonte
Resumo:
Les bases actuelles de données multimédia nécessitent des outils de plus en plus avancés pour pouvoir être parcourues avec efficacité. Dans ce contexte, la recherche en interaction avec un utilisateur est une approche qui permet de résoudre des requêtes à la sémantique complexe avec rapidité, sans pour autant nécessiter un haut niveau d'expertise utilisateur. Parmi les différents éléments intervenant dans la conception d'un système de recherche interactive, deux parties essentielles interviennent: l'indexation et la similarité entre les documents multimédia, et la gestion du processus interactif. Dans le contexte de la recherche multimédia par le contenu, on s'appuie sur des descriptions visuelles extraites automatiquement des documents. Suite à cette étape initiale, il est nécessaire de produire des structures de données, appelées index, ainsi qu'une métrique capable de comparer ces structures. Pour ce faire, nous proposons de représenter un document sous la forme d'un graphe, où chaque sommet du graphe représente une partie du document (région, point d'intérêt, ...) et chaque arête du graphe représente une relation entre deux parties du document. Puis, nous introduisons des métriques associées, sous la forme de fonctions noyaux sur graphes, qui permettent d'utiliser ces représentations complexes avec les méthodes d'apprentissages Hilbertiennes, telle que les SVMs. La gestion du processus interactif entre le système et un utilisateur a fait d'important progrès grâce à l'approche dite par apprentissage actif. Les premières approches proposent des critères pertinents pour la sélection de document à faire annoter par l'utilisateur, dans le but de trouver les documents recherchés au plus vite. Dans ce contexte, nous proposons d'aller plus loin en nous intéressant à la fabrication "en ligne" d'index et métriques associées en fonction de la nature de la recherche. En d'autres termes, nous proposons de remplacer le schéma traditionnel, où un unique index général est utilisé, par un schéma d'indexation active, où chaque utilisateur dispose d'un index dédié à sa requête.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Kaced, Ahmed Réda. "Problèmes de sécurité posés par les proxies d'adaptation multimédia : proposition de solutions pour une sécurisation de bout-en-bout". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005883.

Texto completo da fonte
Resumo:
L'évolution des techniques d'adaptation et des contenus multimédias adaptables a montré la nécessité de définir des techniques et des pratiques concernant la sécurité des échanges sur les réseaux. Dans la mesure où l'adaptation des documents multimédia nécessite d'autoriser la modification de ces documents entre le serveur et le client, il est important d'étudier les conditions nécessaires pour assurer ces modifications de façon sécurisée. Nous avons donc, dans ce cadre, à présenter un système de communication multimédia qui préserve l'authenticité et l'intégrité des contenus originaux de bout en bout tout en permettant l'adaptation de ces contenus par des intermédiaires. C'est l'objectif général de cette thèse. Dans ce mémoire, nous présentons SEMAFOR, une plate-forme de communication multimédia offrant aux utilisateurs la possibilité d'adapter leur contenus (selon les besoins) par des n\oe uds intermédiaires. La particularité de cette plate-forme est sa capacité de sécuriser le contenu émis de bout-en-bout, cette sécurisation repose sur deux mécanismes proposés et décrits dans cette thèse : AMCA pour l'authentification des contenu et XSST pour le chiffrement et rechiffrement intermédiaire. Les tests et les mesures de performances présentés à la fin de ce mémoire démontrent la validité des propositions décrites dans cette thèse et valident la pertinence des résultats obtenus.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Ieva, Carlo. "Révéler le contenu latent du code source : à la découverte des topoi de programme". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS024/document.

Texto completo da fonte
Resumo:
Le développement de projets open source à grande échelle implique de nombreux développeurs distincts qui contribuent à la création de référentiels de code volumineux. À titre d'exemple, la version de juillet 2017 du noyau Linux (version 4.12), qui représente près de 20 lignes MLOC (lignes de code), a demandé l'effort de 329 développeurs, marquant une croissance de 1 MLOC par rapport à la version précédente. Ces chiffres montrent que, lorsqu'un nouveau développeur souhaite devenir un contributeur, il fait face au problème de la compréhension d'une énorme quantité de code, organisée sous la forme d'un ensemble non classifié de fichiers et de fonctions.Organiser le code de manière plus abstraite, plus proche de l'homme, est une tentative qui a suscité l'intérêt de la communauté du génie logiciel. Malheureusement, il n’existe pas de recette miracle ou bien d’outil connu pouvant apporter une aide concrète dans la gestion de grands bases de code.Nous proposons une approche efficace à ce problème en extrayant automatiquement des topoi de programmes, c'est à dire des listes ordonnées de noms de fonctions associés à un index de mots pertinents. Comment se passe le tri? Notre approche, nommée FEAT, ne considère pas toutes les fonctions comme égales: certaines d'entre elles sont considérées comme une passerelle vers la compréhension de capacités de haut niveau observables d'un programme. Nous appelons ces fonctions spéciales points d’entrée et le critère de tri est basé sur la distance entre les fonctions du programme et les points d’entrée. Notre approche peut être résumée selon ses trois étapes principales : 1) Preprocessing. Le code source, avec ses commentaires, est analysé pour générer, pour chaque unité de code (un langage procédural ou une méthode orientée objet), un document textuel correspondant. En outre, une représentation graphique de la relation appelant-appelé (graphe d'appel) est également créée à cette étape. 2) Clustering. Les unités de code sont regroupées au moyen d’une classification par clustering hiérarchique par agglomération (HAC). 3) Sélection du point d’entrée. Dans le contexte de chaque cluster, les unités de code sont classées et celles placées à des positions plus élevées constitueront un topos de programme.La contribution de cette thèse est triple: 1) FEAT est une nouvelle approche entièrement automatisée pour l'extraction de topoi de programme, basée sur le regroupement d'unités directement à partir du code source. Pour exploiter HAC, nous proposons une distance hybride originale combinant des éléments structurels et sémantiques du code source. HAC requiert la sélection d’une partition parmi toutes celles produites tout au long du processus de regroupement. Notre approche utilise un critère hybride basé sur la graph modularity et la cohérence textuelle pour sélectionner automatiquement le paramètre approprié. 2) Des groupes d’unités de code doivent être analysés pour extraire le programme topoi. Nous définissons un ensemble d'éléments structurels obtenus à partir du code source et les utilisons pour créer une représentation alternative de clusters d'unités de code. L’analyse en composantes principales, qui permet de traiter des données multidimensionnelles, nous permet de mesurer la distance entre les unités de code et le point d’entrée idéal. Cette distance est la base du classement des unités de code présenté aux utilisateurs finaux. 3) Nous avons implémenté FEAT comme une plate-forme d’analyse logicielle polyvalente et réalisé une étude expérimentale sur une base ouverte de 600 projets logiciels. Au cours de l’évaluation, nous avons analysé FEAT sous plusieurs angles: l’étape de mise en grappe, l’efficacité de la découverte de topoi et l’évolutivité de l’approche
During the development of long lifespan software systems, specification documents can become outdated or can even disappear due to the turnover of software developers. Implementing new software releases or checking whether some user requirements are still valid thus becomes challenging. The only reliable development artifact in this context is source code but understanding source code of large projects is a time- and effort- consuming activity. This challenging problem can be addressed by extracting high-level (observable) capabilities of software systems. By automatically mining the source code and the available source-level documentation, it becomes possible to provide a significant help to the software developer in his/her program understanding task.This thesis proposes a new method and a tool, called FEAT (FEature As Topoi), to address this problem. Our approach automatically extracts program topoi from source code analysis by using a three steps process: First, FEAT creates a model of a software system capturing both structural and semantic elements of the source code, augmented with code-level comments; Second, it creates groups of closely related functions through hierarchical agglomerative clustering; Third, within the context of every cluster, functions are ranked and selected, according to some structural properties, in order to form program topoi.The contributions of the thesis is three-fold:1) The notion of program topoi is introduced and discussed from a theoretical standpoint with respect to other notions used in program understanding ;2) At the core of the clustering method used in FEAT, we propose a new hybrid distance combining both semantic and structural elements automatically extracted from source code and comments. This distance is parametrized and the impact of the parameter is strongly assessed through a deep experimental evaluation ;3) Our tool FEAT has been assessed in collaboration with Software Heritage (SH), a large-scale ambitious initiative whose aim is to collect, preserve and, share all publicly available source code on earth. We performed a large experimental evaluation of FEAT on 600 open source projects of SH, coming from various domains and amounting to more than 25 MLOC (million lines of code).Our results show that FEAT can handle projects of size up to 4,000 functions and several hundreds of files, which opens the door for its large-scale adoption for program understanding
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Lopez, Del Hierro Silvia. "Relations entre la méthodologie de l'enseignement de la compréhension orale et les représentations didactiques des professeurs de français langue étrangère au Mexique". Thesis, Nancy 2, 2010. http://www.theses.fr/2010NAN21005/document.

Texto completo da fonte
Resumo:
L'objectif de la présente étude a été de connaître comment les professeurs de deux institutions d'enseignement du français langue étrangère (FLE) au Mexique enseignent la compréhension orale à ses étudiants. Nous avons émis comme hypothèse que le professeur de français base l'enseignement de cette compétence, complexe et controversée, sur la base de différents principes méthodologiques acquis lors de sa formation en FLE et de son expérience professionnelle mais aussi des représentations surgies, à propos de cette compétence, dans son entourage professionnel, et de son expérience d'apprentissage d'une langue étrangère. Pour ce faire, une analyse sur le contenu thématique et la modalisation du discours du professeur a été réalisée. Cette étude nous a permis en effet, de confirmer une partie des hypothèses énoncées au début de ce travail et d'observer en outre, l'influence des institutions étudiées dans la conformation des représentations et des pratiques mises en oeuvre dans l'enseignement du français au Mexique
The purpose of this thesis was to study how French language teachers from two language centers in Mexico teach listening comprehension to their students. The hypothesis of the study was that French language instructors teach this controversial and complex skill on the basis of different methodological precepts learned from their French teacher training and their professional experience, as well as from the representations acquired from their professional working environment and from their personal experience of learning a second language. To complete our study we analysed the content and modalisation of the teachers' discourse. This study confirmed part of our hypothesis and highlighted the influence of the institutional context in the instructional methods and practice of French language teaching in Mexico
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Ly, Anh Tuan. "Accès et utilisation de documents multimédia complexes dans une bibliothèque numérique". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00871651.

Texto completo da fonte
Resumo:
Dans le cadre de trois projets européens, notre équipe a mis au point un modèle de données et un langage de requête pour bibliothèques numériques supportant l'identification, la structuration, les métadonnées, la réutilisation, et la découverte des ressources numériques. Le modèle proposé est inspiré par le Web et il est formalisé comme une théorie du premier ordre, dont certains modèles correspondent à la notion de bibliothèque numérique. En outre, une traduction complète du modèle en RDF et du langage de requêtes en SPARQL a également été proposée pour démontrer son adéquation à des applications pratiques. Le choix de RDF est dû au fait qu'il est un langage de représentation généralement accepté dans le cadre des bibliothèques numériques et du Web sémantique. L'objectif de cette thèse était double: concevoir et mettre en œuvre une forme simplifiée de système de gestion de bibliothèques numériques, d'une part, et contribuer à l'enrichissement du modèle, d'autre part. Pour atteindre cet objectif nous avons développé un prototype d'un système de bibliothèque numérique utilisant un stockage RDF pour faciliter la gestion interne des métadonnées. Le prototype permet aux utilisateurs de gérer et d'interroger les métadonnées des ressources numériques ou non-numériques dans le système en utilisant des URIs pour identifier les ressources, un ensemble de prédicats pour la description de ressources, et des requêtes conjonctives simples pour la découverte de connaissances dans le système. Le prototype est mis en œuvre en utilisant les technologies Java et l'environnement de Google Web Toolkit dont l'architecture du système se compose d'une couche de stockage, d'une couche de métier logique, d'une couche de service, et d'une interface utilisateur. Pendant la thèse, le prototype a été construit, testé et débogué localement, puis déployé sur Google App Engine. Dans l'avenir, il peut être étendu pour devenir un système complet de gestion de bibliothèques numériques. Par ailleurs, la thèse présente également notre contribution à la génération de contenu par réutilisation de ressources. Il s'agit d'un travail théorique dont le but est d'enrichir le modèle en lui ajoutant un service important, à savoir la possibilité de création de nouvelles ressources à partir de celles stockées dans le système. L'incorporation de ce service dans le système sera effectuée ultérieurement.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Martin, Jean-Pascal. "Description sémiotique de contenus audiovisuels". Paris 11, 2005. http://www.theses.fr/2005PA112297.

Texto completo da fonte
Resumo:
Trois catégories d'éléments de description du contenu sont nécessaires pour la description d'un Document AudioVisuel (DAV) : les objets montrés, les procédés de mise en image et les relations diégétiques. L'identification des relations diégétiques (ie celles de l'univers spatio-temporel désigné par le récit) ne peut être automatisée. Les formalismes de la communauté utilisent des descripteurs sémantiques difficiles à sélectionner puisqu'ils dépendent d'éléments contextuels interprétés d'après des connaissances élaborées. Nous choisissons de garder l'homme dans la chaîne d'indexation pour répondre à ce constat. Deux éléments de réponse sont fournis. Premièrement, nous proposons une méthode d'indexation sémiotique fondée sur l'identification et l'explicitation des signes réifiés lors de l'analyse. Pour cela, nous définissions le signe tétraédrique qui est une représentation cognitive composée nécessairement d'un signifié et d'un signifiant et éventuellement de référents intensionnels et extensionnels. Nous définissions ensuite l'interprétation comme une réécriture sémiotique. Les graphes de signes sont proposés comme corrélats de l'activité mentale et peuvent être opérationnalisés par des schémas (RDF+OWL) servant d'extension à MPEG-7. Deuxièmement, nous préconisons un modèle d'interaction opérative entre l'homme et le système outillant la réification de l'interprétation. Une plateforme pour la construction de graphes de signes fondée sur le paradigme multi-agents permet la construction dynamique et négociée de signes exprimés selon une syntaxe et une grammaire fournie. Des schémas d'interprétation fournissent aux agents des micros interprétations activables en contexte
Three categories of descriptors are necessary to describe an audiovisual content: objects shown, processes used for film direction, and diegetic relations. The identification of the diegetic relations (those of the space-time continuum of the narration) cannot be automated. The formalisms used by the community exploit semantic descriptors that are difficult to select since they depend on contextual elements interpreted according to sophisticated knowledge. We choose to keep the human in the center of indexation's process. Two kinds of answers are provided. First, we propose a method of semiotic indexing based on the identification and the clarification of the signs that are reified at the time of the analysis. For that, we define the tetrahedral sign as a cognitive representation necessarily made up of one meant and of one meaning and possibly intensional and extensional referents. We define then the process of interpretation as a semiotic rewriting. We propose a formalism for graphs of signs (expressed with RDF+OWL schema integrated as extensions of MPEG-7) to represent the mental activity of interpretation. Second, we recommend a model of operative interaction between the man and the system that makes the reification of interpretation easier. A platform for the construction of graphs of signs based on the multi-agents paradigm allows dynamic and negotiated construction signs. Those signs are expressed according to provided syntax and grammar. Diagrams of interpretation provide to the agents micro-interpretations that may be activated in context
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Lombard, Jordan. "Guidage des traitements et acceptabilité de la tablette pour la compréhension de documents multiples". Thesis, Toulouse 2, 2019. http://www.theses.fr/2019TOU20035.

Texto completo da fonte
Resumo:
Cette thèse s’intéresse à l’activité des étudiants (entre autres la sélection d’information) lorsqu’ils lisent plusieurs documents textuels dans le but de développer leur point de vue critique sur un sujet ; et elle s’intéresse aux perceptions (notamment la facilité d’utilisation) des étudiants vis-à-vis de la tablette comme outil pour consulter des documents. Dans ces conditions, trois études évaluent la performance de compréhension d’étudiants suite à la lecture de plusieurs documents sur tablette avec une application innovante (e.g., affichage de plusieurs documents simultanément), selon qu’ils étudient librement les documents ou qu’ils sont guidés dans le traitement des documents. En outre, ces études évaluent comment les étudiants perçoivent la tablette comme outil pour étudier des documents, notamment s’ils jugent la tablette permet d’améliorer leur performance
This thesis focuses on students' activity (including information selection) when they read multiple textual documents in order to develop their critical perspective on a topic; and it focuses on students' perceptions (including ease of use) of the tablet as a tool for consulting documents. Under these conditions, three studies evaluate the comprehension performance of students following the reading of several documents on a tablet with an innovative application (e.g., display of several documents simultaneously), depending on whether they freely study the documents or are guided in the processing of the documents. In addition, these studies assess how students perceive the tablet as a tool for studying documents, particularly if they consider the tablet to improve their performance
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Mbarki, Mohamed. "Gestion de l'hétérogénéité documentaire : le cas d'un entrepôt de documents multimédia". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/185/.

Texto completo da fonte
Resumo:
La société de la connaissance est basée sur trois axes : la diffusion et l'usage de l'information via les nouvelles technologies, la déduction des connaissances induites par cette information et les impacts économiques qui peuvent en découler. Proposer aux acteurs et plus particulièrement aux "décideurs" de cette société des outils qui leur permettent d'élaborer de la "connaissance" ou du moins des "éléments de connaissance" à partir de l'information disponible semblent être assez difficile à assurer. Cette difficulté est due au dynamisme de l'environnement et la diversité des facteurs influençant la production, l'extraction et la communication des informations. En effet, ces informations sont englobées dans des documents qui sont collectés à partir des sources disséminées (Internet, Workflow, bibliothèques numériques, etc. ). Ces documents sont ainsi hétérogènes sur le fond et sur la forme (ils peuvent concerner des domaines divers, sont plus ou moins structurés, peuvent être liés à des structures diverses, contiennent plusieurs type de média, sont stockés dans plusieurs type de supports, etc. ). Les défis actuels sont de concevoir de nouvelles applications pour exploiter cette grande masse de documents très hétérogènes. Les travaux présentés dans cette thèse, visent à faire face à ces défis et notamment à proposer des solutions permettant de "gérer et créer de la connaissance" à partir de l'intégration de toute l'information disponible sur les documents hétérogènes. La manipulation des entrepôts de documents multimédia constitue le cadre applicatif de nos propositions. Notre approche s'articuler autour de trois axes complémentaires : (1) la représentation, (2) le stockage (ou l'intégration) et (3) l'exploitation des documents hétérogènes. La représentation des documents concerne la détermination des informations à conserver et la façon selon laquelle elles doivent être organisées pour mieux appréhender et prévoir leurs usages. La solution que nous avons choisie pour répondre à ces besoins se base sur la proposition d'un modèle qui intègre plusieurs niveaux de description imbriqués et complémentaires (une couche générique et une couche spécifique, une description logique et une description sémantique). .
The knowledge society is based on three axes: the diffusion and use of information via new technologies, the deduction of knowledge induced by this information and the economic impacts which can result from this information. To offer to the actors and more particularly to the "decision makers" of this society some tools which enable them to produce and manage "knowledge" or at least "elements of knowledge" seem to be rather difficult to ensure. This difficulty is due to the dynamism of the environment and the diversity of factors influencing the information production, extraction and communication. Indeed, this information is included in documents which are collected from disseminated sources (Internet, Workflow, numerical libraries, etc. ). These documents are thus heterogeneous on the content and on the form (they can be related to various fields, they can be more or less structured, they can have various structures, they contain several type of media, are stored in several type of supports, etc). The current challenges are to conceive new applications to exploit this document heterogeneity. Having in mind these needs, the work presented in my thesis, aims to face these challenges and in particular at proposing solutions in order "to manage and create knowledge" starting from the integration of all information available on the heterogeneous documents. The handling of multimedia documents repositories constitutes the applicative framework of our proposals. Our approach is articulated around three complementary axes: (1) the representation, (2) storage (or integration) and (3) exploitation of the heterogeneous documents. Documents representation is related to the determination of information that must be preserved and the way according to which they must be organized to offer better apprehending and envisaging of their uses. The solution that we chose to meet these needs bases on the proposal for a documents model which integrates several overlapping and complementary levels of description (a generic layer and a specific one, a logical description and a semantic one). .
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Pansini, Vittorio Michele. "Apport de la spectroscopie 1H par résonance magnétique (3 Tesla) à la compréhension de la physiopathologie de la moelle osseuse de la hanche". Phd thesis, Université du Droit et de la Santé - Lille II, 2012. http://tel.archives-ouvertes.fr/tel-00818364.

Texto completo da fonte
Resumo:
Des altérations intra-osseuses liées à l'adiposité médullaire et à ses répercussions sur l'inflammation peuvent jouer un rôle important dans la physiopathologie de certaines maladies de la moelle osseuse (MO). Ces altérations locales, actuellement mal connues, correspondent à une modification de la répartition des différents constituants du tissu osseux et impliquent des interactions entre ostéogenèse et adipogenèse. Des études récentes ont démontré que la MO jaune constitue un tissu adipeux spécifique, différent des tissus adipeux blanc ou brun. Ces études suggèrent qu'elle pourrait avoir un rôle dans la pathogénie d'un grand nombre de pathologies de la moelle osseuse, notamment à la hanche.La spectroscopie par IRM (IRMS) présente l'intérêt d'évaluer, de façon quantitative et non invasive, le contenu graisseux au sein de la MO jaune, en complément des informations diagnostiques obtenues avec séquences IRM conventionnelles. Grâce aux IRM 3T, une amélioration de la qualité spectrale avec des temps d'acquisition adaptés à la pratique clinique peut être espérée. Or, cette technique n'a quasiment pas été évaluée à la hanche et aucune évaluation de la reproductibilité ni aucunes valeurs normales n'ont été étudiées, validées et publiées à ce jour.Le but de ce travail de recherche a donc été d'établir le rôle de la spectroscopie 1H par IRM 3T dans l'évaluation quantitative de la moelle osseuse de la hanche.Notre travail s'est articulé autour de trois axes, donnant lieu au développement des 3 parties de cette thèse.La première étude a porté sur la mise au point de la technique spectroscopique à la hanche et sur l'évaluation de la reproductibilité de cette technique avec une machine IRM 3 Tesla, puisque cela n'avait pas été étudié.J'ai démontré que la spectroscopie 1H MR à 3 Tesla est une technique fiable, permettant l'obtention de valeurs de contenu graisseux hautement reproductibles au sein de la moelle osseuse de la hanche et qu'aucune différence statistiquement significative du contenu graisseux n'existait entre les deux hanches. Ce travail a été accepté pour publication.Sur cette base, nous avons établi, au cours de la 2ème étude, des valeurs de normalité du contenu graisseux du fémur proximal chez des sujets sains en tenant en compte de l'âge et du sexe de l'individu, étape indispensable pour disposer de données de référence lors de l'évaluation des conditions pathologiques affectant la moelle osseuse à la hanche. Ce travail est actuellement soumis à publication.La 3ème étude, en cours, porte sur la recherche et l'identification potentielle de spectres anormaux de la moelle osseuse de la hanche chez des patients présentant une ONTF ou souffrant d'anorexie mentale. A l'heure actuelle, le recrutement de patients porteurs d'une ONTF est presque terminé et nous disposons de quelques résultats préliminaires. Quant au recrutement des patients atteints d'anorexie mentale, il est actuellement en cours.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Ollagnier, Anaïs. "Analyse de requêtes en langue naturelle et extraction d'informations bibliographiques pour une recherche de livres orientée contenu efficace". Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0556/document.

Texto completo da fonte
Resumo:
Au cours des dernières années, le Web a connu une énorme croissance en matière de contenus et d'utilisateurs. Ce phénomène a entraîné des problèmes liés à la surcharge d'information face à laquelle les utilisateurs ont des difficultés à trouver les bonnes informations. Des systèmes de recommandation ont été développés pour résoudre ce problème afin de guider les utilisateurs dans ce flux d'informations. Les approches de recommandation se sont multipliées et ont été mises en œuvre avec succès, notamment au travers d’approches telles que le filtrage collaboratif. Cependant, il existe encore des défis et des limites qui offrent des opportunités pour de nouvelles recherches. Parmi ces défis, la conception de systèmes de recommandation de lectures est devenue un axe de recherche en pleine expansion suite à l’apparition des bibliothèques numériques.Traditionnellement, les bibliothèques jouent un rôle passif dans l’interaction avec les lecteurs et ce, faute d’outils efficaces de recherche et de recommandation. Dans ce manuscrit, nous nous sommes penchée sur la création d’un système de recommandation de lectures. Nos objectifs portent sur :- améliorer la compréhension des besoins utilisateurs exprimés au sein des requêtes en langage naturel de recherches de livres, articles et billets ; - pallier l'absence de liens explicites entre ouvrages et articles de revues par la détection et l'analyse automatique des références bibliographiques afin de proposer des liens ; - parvenir à un système de recommandation de lectures s'appuyant sur des données textuelles permettant de fournir une liste de recommandations personnalisées aux utilisateurs actifs
In the recent years, the Web has undergone a tremendous growth regarding both content and users. This has led to an information overload problem in which people are finding it increasingly difficult to locate the right information at the right time. Recommender systems have been developed to address this problem, by guiding users through the big ocean of information. The recommendation approaches have multiplied and have been successfully implemented, particularly through approaches such as collaborative filtering. However, there are still challenges and limitations that offer opportunities for new research. Among these challenges, the design of reading recommendation systems has become a new expanding research focus following the emergence of digital libraries.Traditionally, libraries play a passive role in interaction with users due to the lack of effective search and recommendation tools. In this manuscript, we will study the creation of a reading recommendation system in which we'll try to exploit the possibilities of digital access to scientific information. Our objectives are: - to improve the understanding of user needs expressed in natural language search queries for books, articles and posts. This work will require the establishment of processes capable of exploiting the structures of data and their dimension; - to compensate for the absence of explicit links between books and journal articles by automatically detecting and analyzing bibliographic references, and then to propose links;- to achieve a reading recommendation system based on textual data to provide a customized recommendation list to active users, similar to systems already used by users profiles
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Aubry, Willy. "Etude et mise en place d’une plateforme d’adaptation multiservice embarquée pour la gestion de flux multimédia à différents niveaux logiciels et matériels". Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14678/document.

Texto completo da fonte
Resumo:
Les avancées technologiques ont permis la commercialisation à grande échelle de terminaux mobiles. De ce fait, l’homme est de plus en plus connecté et partout. Ce nombre grandissant d’usagers du réseau ainsi que la forte croissance du contenu disponible, aussi bien d’un point de vue quantitatif que qualitatif saturent les réseaux et l’augmentation des moyens matériels (passage à la fibre optique) ne suffisent pas. Pour surmonter cela, les réseaux doivent prendre en compte le type de contenu (texte, vidéo, ...) ainsi que le contexte d’utilisation (état du réseau, capacité du terminal, ...) pour assurer une qualité d’expérience optimum. A ce sujet, la vidéo fait partie des contenus les plus critiques. Ce type de contenu est non seulement de plus en plus consommé par les utilisateurs mais est aussi l’un des plus contraignant en terme de ressources nécéssaires à sa distribution (taille serveur, bande passante, …). Adapter un contenu vidéo en fonction de l’état du réseau (ajuster son débit binaire à la bande passante) ou des capacités du terminal (s’assurer que le codec soit nativement supporté) est indispensable. Néanmoins, l’adaptation vidéo est un processus qui nécéssite beaucoup de ressources. Cela est antinomique à son utilisation à grande echelle dans les appareils à bas coûts qui constituent aujourd’hui une grande part dans l’ossature du réseau Internet. Cette thèse se concentre sur la conception d’un système d’adaptation vidéo à bas coût et temps réel qui prendrait place dans ces réseaux du futur. Après une analyse du contexte, un système d’adaptation générique est proposé et évalué en comparaison de l’état de l’art. Ce système est implémenté sur un FPGA afin d’assurer les performances (temps-réels) et la nécessité d’une solution à bas coût. Enfin, une étude sur les effets indirects de l’adaptation vidéo est menée
On the one hand, technology advances have led to the expansion of the handheld devices market. Thanks to this expansion, people are more and more connected and more and more data are exchanged over the Internet. On the other hand, this huge amound of data imposes drastic constrains in order to achieve sufficient quality. The Internet is now showing its limits to assure such quality. To answer nowadays limitations, a next generation Internet is envisioned. This new network takes into account the content nature (video, audio, ...) and the context (network state, terminal capabilities ...) to better manage its own resources. To this extend, video manipulation is one of the key concept that is highlighted in this arising context. Video content is more and more consumed and at the same time requires more and more resources. Adapting videos to the network state (reducing its bitrate to match available bandwidth) or to the terminal capabilities (screen size, supported codecs, …) appears mandatory and is foreseen to take place in real time in networking devices such as home gateways. However, video adaptation is a resource intensive task and must be implemented using hardware accelerators to meet the desired low cost and real time constraints.In this thesis, content- and context-awareness is first analyzed to be considered at the network side. Secondly, a generic low cost video adaptation system is proposed and compared to existing solutions as a trade-off between system complexity and quality. Then, hardware conception is tackled as this system is implemented in an FPGA based architecture. Finally, this system is used to evaluate the indirect effects of video adaptation; energy consumption reduction is achieved at the terminal side by reducing video characteristics thus permitting an increased user experience for End-Users
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Derbas, Nadia. "Contributions à la détection de concepts et d'événements dans les documents vidéos". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM035/document.

Texto completo da fonte
Resumo:
L'explosion de la quantité de documents multimédias, suite à l'essor des technologies numériques, a rendu leur indexation très coûteuse et manuellement impossible. Par conséquent, le besoin de disposer de systèmes d'indexation capables d'analyser, de stocker et de retrouver les documents multimédias automatiquement, et en se basant sur leur contenu (audio, visuel), s'est fait ressentir dans de nombreux domaines applicatifs. Cependant, les techniques d'indexation actuelles rencontrent encore des problèmes de faisabilité ou de qualité. Leur performance reste très limitée et est dépendante de plusieurs facteurs comme la variabilité et la quantité de données à traiter. En effet, les systèmes d'indexation cherchent à reconnaître des concepts statiques, comme des objets (vélo, chaise,...), ou des événements (mariage, manifestation,...). Ces systèmes se heurtent donc au problème de variabilité de formes, de positions, de poses, d'illuminations, d'orientations des objets. Le passage à l'échelle pour pouvoir traiter de très grands volumes de données tout en respectant des contraintes de temps de calcul et de stockage est également une contrainte.Dans cette thèse, nous nous intéressons à l'amélioration de la performance globale de ces systèmes d'indexation de documents multimédias par le contenu. Pour cela nous abordons le problème sous différents angles et apportons quatre contributions à divers stades du processus d'indexation. Nous proposons tout d'abord une nouvelle méthode de fusion "doublement précoce " entre différentes modalités ou différentes sources d'informations afin d'exploiter au mieux la corrélation entre les modalités. Cette méthode est ensuite appliquée à la détection de scènes violentes dans les films. Nous développons ensuite une méthode faiblement supervisée pour la localisation des concepts basiques (comme les objets) dans les images qui pourra être utilisé plus tard comme un descripteur et une information supplémentaire pour la détection de concepts plus complexes (comme des événements). Nous traitons également la problématique de réduction du bruit généré par des annotations ambiguës sur les données d'apprentissage en proposant deux méthodes: une génération de nouvelles annotations au niveau des plans et une méthode de pondération des plans. Enfin, nous avons mis en place une méthode d'optimisation des représentations du contenu multimédia qui combine une réduction de dimension basée sur une ACP et des transformations non linéaires.Les quatre contributions sont testées et évaluées sur les collections de données faisant référence dans le domaine, comme TRECVid ou MediaEval. Elles ont participé au bon classement de nos soumissions dans ces campagnes
A consequence of the rise of digital technology is that the quantity of available collections of multimedia documents is permanently and strongly increasing. The indexing of these documents became both very costly and impossible to do manually. In order to be able to analyze, classify and search multimedia documents, indexing systems have been defined. However, most of these systems suffer quality or practicability issues. Their performance is limited and depends on the data volume and data variability. Indexing systems analyze multimedia documents, looking for static concepts (bicycle, chair,...), or events (wedding, protest,...). Therefore, the variability in shapes, positions, lighting or orientation of objects hinders the process. Another aspect is that systems must be scalable. They should be able to handle big data while using reasonable amount of computing time and memory.The aim of this thesis is to improve the general performance of content-based multimedia indexing systems. Four main contributions are brought in this thesis for improving different stages of the indexing process. The first one is an "early-early fusion method" that merges different information sources in order to extract their deep correlations. This method is used for violent scenes detection in movies. The second contribution is a weakly supervised method for basic concept (objects) localization in images. This can be used afterwards as a new descriptor to help detecting complex concepts (events). The third contribution tackles the noise reduction problem on ambiguously annotated data. Two methods are proposed: a shot annotation generator, and a shot weighing method. The last contribution is a generic descriptor optimization method, based on PCA and non-linear transforms.These four contributions are tested and evaluated using reference data collections, including TRECVid and MediaEval. These contributions helped our submissions achieving very good rankings in those evaluation campaigns
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Berrani, Sid-Ahmed. "Recherche approximative de plus proches voisins avec contrôle probabiliste de la précision ; application à la recherche d'images par le contenu". Phd thesis, Université Rennes 1, 2004. http://tel.archives-ouvertes.fr/tel-00532854.

Texto completo da fonte
Resumo:
Cette thèse s'intéresse aux systèmes de recherche d'images par le contenu, où le but est de rechercher les images les plus similaires à une image requête fournie en exemple. Pour cela, il est d'abord nécessaire de décrire les images stockées dans la base. L'objectif est de traduire la similarité visuelle entre images en une simple notion de proximité spatiale entre descripteurs. Ainsi, pour retrouver les images similaires à l'image requête, il suffit de retrouver les descripteurs les plus proches du descripteur de l'image requête. Ce mode de recherche, appelé recherche de plus proches voisins, est cependant extrêmement coûteux même lorsque les techniques s'indexation multidimensionnelles sont utilisées. Les performances de celles-ci se dégradent exponentiellement lorsque la dimension des descripteurs augmente (phénomène de la malédiction de la dimension). Il s'avère toutefois que l'on peut fortement réduire le coût de ces recherches en effectuant des recherches approximatives. Le principe est alors de négocier une réduction du temps de réponse contre l'introduction d'imprécisions durant la recherche. Ce travail reprend ce principe et propose une nouvelle méthode de recherche approximative de plus proches voisins qui permet un contrôle fin et intuitif de la précision de la recherche. Ce contrôle s'exprime au travers d'un seul paramètre qui indique la probabilité maximale de ne pas trouver un des plus proches voisins recherchés. Dans le but d'évaluer rigoureusement ses performances dans le cadre d'un système réel, la méthode proposée a été ensuite intégrée dans un système de recherche d'images pour la détection de copies. Les expérimentations effectuées montrent que la méthode proposée est efficace, fiable et son imprécision n'a qu'un impact mineur sur la qualité des résultats finaux.
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Zhang, Chang. "Exploitation didactique d’un corpus pour l’enseignement de la compréhension orale du FLE en milieu universitaire chinois : didactisation de la banque de données multimédia CLAPI (Corpus de Langues Parlées en Interaction)". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2064.

Texto completo da fonte
Resumo:
La compréhension orale du français langue étrangère constitue un objectif clé dans le processus d’apprentissage d’une langue étrangère. Néanmoins, les étudiants chinois de spécialité FLE dans les universités chinoises ont souvent des difficultés en compréhension orale. La présente étude tente d’exploiter la banque de donnée CLAPI (Corpus de langues parlées en interaction) pour proposer des pistes de l’enseignement de la compréhension orale du FLE en milieu universitaire chinois. Le travail présente d’abord le contexte culturel et d’enseignement pour mieux interpréter la culture d’enseignement-apprentissage du FLE en Chine ; puis notre recherche fait appel aux études théoriques sur le phénomène de compréhension orale en langue étrangère, aux celles sur les apports des corpus. Ensuite, nous effectuons une recherche sur le terrain auprès des étudiants et des enseignants de français en milieu universitaire chinois afin de dégager les aouts et les limites dans l’enseignement/apprentissage du cours de compréhension orale. En confrontant les théories de base et le contexte d’enseignement chinois aux résultats obtenus dans notre enquête, nous arrivons à apporter les réflexions sur l’exploitation du corpus oral pour l’enseignement de la compréhension orale au contexte chinois, ainsi que les propositions s’adressant surtout à nos collègues de français en milieu universitaire chinois
Listening comprehension is a key objective in the process of learning a foreign language. The Chinese students often find understanding oral French difficult.Based on this fact, this paper attempts to use the database CLAPI (Corpus de langues parlées en interaction) to propose some paths for teaching listening comprehension in the context of Chinese universities.This research begins with the presentation of educational and cultural context for interpreting the culture of teaching in China; then the paperconsists of a review of foreign language listening comprehension andthe contributions of the corpus; and then, we carry out this study in the context of Chinese universities, with students and teachers of French, in order to find advantages and limitations in the teaching and learning of listening comprehension. Based on the theories, the Chinese context of French teaching andthe results obtained in our study, we bring our reflections and proposals on the teaching of oral corpus for listening comprehension in Chinese context
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Bursuc, Andrei. "Indexation et recherche de contenus par objet visuel". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00873966.

Texto completo da fonte
Resumo:
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Livshin, Arie. "IDENTIFICATION AUTOMATIQUE DES INSTRUMENTS DE MUSIQUE". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00810688.

Texto completo da fonte
Resumo:
Cette thèse traite de divers aspects d'Identification Automatique d'Instruments de Musique (IAIM). L'IAIM signifie, d'une manière intuitive, que pour un enregistrement musical donné, l'ordinateur essaie d'identifier quels instruments de musique sont utilisés dans quelles parties de l'enregistrement. La recherche en IAIM s'est développée au cours des 10 dernières années en particulier grâce à son utilisation en tant que composant d'un moteur de recherche "intelligent" pour la musique. Ce moteur de recherche peut trouver la musique sur internet ou sur des lecteurs MP3 selon des critères "intelligents" comme par exemple le style ou le genre de musique alors que des moteurs de recherche classiques utilisent seulement l'information textuelle liée aux fichiers musicaux. D'autres utilisations de l'IAIM concernent d'autres algorithmes de recherche dans la musique, comme par exemple la transcription automatique et l'alignement de partition, ou encore les logiciels dédiés à la composition musicale ou à l'enregistrement en studio. L'IAIM est composée de plusieurs étapes qui constituent chacune un défi pour les chercheurs. Les différentes étapes, présentées dans cette thèse, sont les suivantes: obtenir et formater les bases de données de sons pour l'apprentissage et l'évaluation, calculer les descripteurs des sons, procéder au nettoyage automatique des bases de données, attribuer des poids aux descripteurs et réduire leur dimension, et, enfin, classer les sons selon leur appartenance aux différents instruments. Mener une évaluation correcte du déroulement de l'AMIR constitue aussi un travail fondamental. Ce travail traite en détail des différentes étapes du processus de l'IAIM et, tout en comblant des lacunes et des défaillances dans l'état de l'art, introduit de nouvelles techniques et de nouvelles méthodes pour le perfectionner: il permet d'identifier les instruments de musique à partir des tons séparés, des solos, de la musique polyphonique et multi-instrumentale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Le, Huu Ton. "Improving image representation using image saliency and information gain". Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2287/document.

Texto completo da fonte
Resumo:
De nos jours, avec le développement des nouvelles technologies multimédia, la recherche d’images basée sur le contenu visuel est un sujet de recherche en plein essor avec de nombreux domaines d'application: indexation et recherche d’images, la graphologie, la détection et le suivi d’objets... Un des modèles les plus utilisés dans ce domaine est le sac de mots visuels qui tire son inspiration de la recherche d’information dans des documents textuels. Dans ce modèle, les images sont représentées par des histogrammes de mots visuels à partir d'un dictionnaire visuel de référence. La signature d’une image joue un rôle important car elle détermine la précision des résultats retournés par le système de recherche.Dans cette thèse, nous étudions les différentes approches concernant la représentation des images. Notre première contribution est de proposer une nouvelle méthodologie pour la construction du vocabulaire visuel en utilisant le gain d'information extrait des mots visuels. Ce gain d’information est la combinaison d’un modèle de recherche d’information avec un modèle d'attention visuelle.Ensuite, nous utilisons un modèle d'attention visuelle pour améliorer la performance de notre modèle de sacs de mots visuels. Cette étude de la saillance des descripteurs locaux souligne l’importance d’utiliser un modèle d’attention visuelle pour la description d’une image.La dernière contribution de cette thèse au domaine de la recherche d’information multimédia démontre comment notre méthodologie améliore le modèle des sacs de phrases visuelles. Finalement, une technique d’expansion de requêtes est utilisée pour augmenter la performance de la recherche par les deux modèles étudiés
Nowadays, along with the development of multimedia technology, content based image retrieval (CBIR) has become an interesting and active research topic with an increasing number of application domains: image indexing and retrieval, face recognition, event detection, hand writing scanning, objects detection and tracking, image classification, landmark detection... One of the most popular models in CBIR is Bag of Visual Words (BoVW) which is inspired by Bag of Words model from Information Retrieval field. In BoVW model, images are represented by histograms of visual words from a visual vocabulary. By comparing the images signatures, we can tell the difference between images. Image representation plays an important role in a CBIR system as it determines the precision of the retrieval results.In this thesis, image representation problem is addressed. Our first contribution is to propose a new framework for visual vocabulary construction using information gain (IG) values. The IG values are computed by a weighting scheme combined with a visual attention model. Secondly, we propose to use visual attention model to improve the performance of the proposed BoVW model. This contribution addresses the importance of saliency key-points in the images by a study on the saliency of local feature detectors. Inspired from the results from this study, we use saliency as a weighting or an additional histogram for image representation.The last contribution of this thesis to CBIR shows how our framework enhances the BoVP model. Finally, a query expansion technique is employed to increase the retrieval scores on both BoVW and BoVP models
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Terrier, Linda. "Méthodologie linguistique pour l'évaluation des restitutions et analyse expérimentale des processus de didactisation du son : recommandations pour un apprentissage raisonné de la compréhension de l'anglais oral par les étudiants francophones du secteur LANSAD". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1554/.

Texto completo da fonte
Resumo:
Cette étude est motivée par le constat du faible niveau des étudiants du secteur LANSAD dans la compétence de compréhension de l'anglais oral. Elle établit les aspects de la phonologie de l'anglais susceptibles d'entraver la compréhension du message par un francophone. L'analyse diachronique de la place dédiée à l'enseignement de la phonologie et de la compréhension de l'oral dans les différentes méthodologies, et l'analyse des processus cognitifs impliqués dans l'acte de compréhension de l'oral suggèrent de concentrer l'attention des étudiants sur les traitements phonologiques, lexicaux et syntaxiques de la langue, à travers le travail de restitution écrite d'un contenu oral. Cette proposition invite à rechercher des modes d'écoute d'un document vidéo ou sonore appropriés. Notre hypothèse de travail est que les processus de didactisation du son pourraient alléger les charges cognitives intrinsèques et extrinsèques liées à la tâche de compréhension de l'oral et permettre ainsi aux étudiants d'améliorer leur niveau dans cette compétence. Cependant, confronter une telle hypothèse aux données du terrain nécessite de posséder un outil de mesure valide. La méthodologie linguistique d'évaluation des restitutions développée pour ce travail a été appliquée à l'analyse quantitative des restitutions issues des quatre expérimentations mises en œuvre pour valider l'hypothèse de travail. Une étude qualitative a également été menée. Les résultats encouragent à formuler de nouvelles pistes pour un travail raisonné de la compréhension de l'anglais oral en mode d'enseignement / apprentissage mixte (" blended learning ") dans le cadre d'une didactique multimédia des langues
This PhD thesis was motivated by the weak level of French university student using English for specific purposes in listening to English. We first established which aspects of English phonology may cause listening comprehension difficulties for native speakers of French. We then analyzed the place of phonology and listening skills in the history of English teaching in France and the cognitive processes involved in the act of listening to a foreign language. We concluded this review by suggesting that focus should be put on teaching and learning the language through written transcriptions of oral documents, rather than on listening strategies. This proposed change in the instructional paradigm invited research into new modes of listening to audio or video files and we chose to explore the value of a didactic approach to sound-editing within the framework of the Cognitive Load Theory. The hypothesis is that the sound-editing processes studied could reduce the intrinsic and extraneous cognitive loads linked to the task of understanding spoken English. However, checking this hypothesis against empirical data required possessing a valid tool to assess listening comprehension through written transcriptions. A linguistic methodology was built to that purpose and applied to the quantitative analysis of transcriptions written by students during the four experiments conducted to validate our working hypothesis. A qualitative analysis was also carried out. The results of both these analyses point the way to new proposals regarding teaching and learning English listening comprehension skills based on innovative multimedia instructional designs within a blended learning environment
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Max, Aurélien. "De la création de documents normalisés à la normalisation de documents en domaine contraint". Grenoble 1, 2003. http://www.theses.fr/2003GRE10227.

Texto completo da fonte
Resumo:
Les documents en domaine contraint doivent répondre à de nombreuses conditions de bonne formation qui sont souvent difficiles à appliquer. Un courant de recherche actif s’intéresse à la création de documents normalisés par spécification du contenu sémantique, facilitant ainsi de nombreuses applications de ces documents, dont la production multilingue. Néanmoins, les systèmes actuels ne permettent pas l’analyse d’un document existant afin de le normaliser. Dans ce contexte, nous proposons une approche réutilisant les ressources de tels systèmes pour recréer le contenu sémantique d’un document, à partir duquel sa forme textuelle normalisée est ensuite générée. Cette approche s’articule autour de deux paradigmes centraux : la génération inversée floue, qui permet de trouver heuristiquement des représentations sémantiques candidates, et la négociation interactive, qui permet à un expert du domaine de valider progressivement la représentation sémantique correspondant au document originel
Well-formedness conditions on documents in constrained domains are often hard to apply. An active research trend approaches the authoring of normalized documents through semantic specification, thereby facilitating such applications as multilingual production. However, the current systems are not able to analyse an existing document in order to normalize it. We therefore propose an approach that reuses the resources of such systems to recreate the semantic content of a document, from which a normalized textual version can be generated. This approach is based on two main paradigms : fuzzy inverted generation, which heuristically finds candidate semantic representations, and interactive negotiation, which allows an expert of the domain to progressively validate the semantic representation that corresponds to the original document
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Plesca, Cezar. "Supervision de contenus multimédia : adaptation de contenu, politiques optimales de préchargement et coordination causale de flux". Phd thesis, 2007. http://oatao.univ-toulouse.fr/7600/1/plesca.pdf.

Texto completo da fonte
Resumo:
La qualité des systèmes d'informations distribués dépend de la pertinence du contenu mis à disposition, de la réactivité du service ainsi que de la cohérence des informations présentées. Nos travaux visent à améliorer ces trois critères de performance et passent par la prise en compte des caractéristiques de l'utilisateur, des ressources disponibles ou plus généralement du contexte d'exécution. Par conséquent, cette thèse comporte trois volets. Le premier volet se place dans le cadre de l'adaptation de systèmes d’information déployés dans des contextes dynamiques et stochastiques. Nous présentons une approche où des agents d’adaptation appliquent des politiques de décision séquentielle dans l'incertain. Nous modélisons ces agents par des Processus Décisionnels de Markov (PDM) selon que le contexte soit observable ou seulement partiellement observable (PDM Partiellement Observables). Dans le cas d’un service mobile de consultation de films, nous montrons en particulier qu’une politique d'adaptation de ce service à des ressources limitées peut être nuancée selon l'intérêt de l'utilisateur, estimé grâce à l’évaluation des signaux de retour implicite. Dans le deuxième volet, nous nous intéressons à l'optimisation de la réactivité d'un système qui propose des contenus hypermédia. Nous nous appuyons sur des techniques de préchargement pour réduire les latences. Comme précédemment, un PDM modélise les habitudes des utilisateurs et les ressources disponibles. La force de ce modèle réside dans sa capacité à fournir des politiques optimales de préchargement. Les premières politiques que nous obtenons sont simples. Nous enrichissons alors le modèle pour dériver des politiques de préchargement plus complexes et plus agressives et montrons leurs performances par simulation. Afin de personnaliser nos stratégies optimales nous proposons finalement un modèle PDMPO dont les politiques s'adaptent aux profils des utilisateurs. Le troisième volet se place dans le contexte des applications multimédia interactives distribuées et concerne le contrôle de la cohérence des flux multimédia répartis. Dans un tel contexte, plusieurs mécanismes de synchronisation sont nécessaires et plusieurs ordres logiques (fifo, causal, total) s'avèrent utiles. Nous proposons une boîte à outils capable de gérer plusieurs protocoles d’ordre partiel et d'assurer une délivrance correcte de chaque message, en respectant tous les ordres qui lui ont été imposés. Nous décrivons ensuite l’intégration des tolérances humaines vis-à-vis des courtes incohérences causales dans notre boîte à outils. Nos simulations montrent que de meilleures performances sont obtenues par cette méthode comparativement à d’autres approches, comme la causalité classique ou la Δ-causalité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Bourque, Annie-Claude. "Analyse de contenu de modèles globaux d'intervention pour une meilleure compréhension du processus de priorisation des stratégies d'intervention spécifiques". Thèse, 2019. http://depot-e.uqtr.ca/id/eprint/9341/1/eprint9341.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia