Siga este enlace para ver otros tipos de publicaciones sobre el tema: Codage adaptatif de la vidéo.

Tesis sobre el tema "Codage adaptatif de la vidéo"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Codage adaptatif de la vidéo".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Herrou, Glenn. "Résolution Spatio-temporelle Adaptative pour un Codage à Faible Complexité des Formats Vidéo Émergents". Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0020.

Texto completo
Resumen
La standardisation du dernier format vidéo en date, appelé Ultra-High Definition TV (UHDTV), vise à améliorer la qualité l’expérience des utilisateurs en introduisant de nouvelles technologies telles que la 4K ou le High Frame-Rate (HFR). Cependant, ces améliorations multiplient la quantité de données à traiter avant transmission du signal par un facteur 8. En plus de ce nouveau format, les fournisseurs de contenu doivent aussi encoder les vidéos dans des formats et à des débits différents du fait de la grande variété des systèmes et réseaux utilisés par les consommateurs. SHVC, l’extension scalable du dernier standard de compression video High Efficiency Video Coding (HEVC) est une solution prometteuse pour adresser ces problématiques. En revanche, son architecture, très demandeuse en termes de calculs, atteint ses limites lors de l’encodage des nouveaux formats vidéo immersifs tels que le standard UHDTV.L’objectif de cette thèse est donc d’étudier des approches de codage scalables et légères basées sur l’adaptation de la résolution spatio-temporelle des vidéos. La première partie de cette thèse propose deux algorithmes de pré-traitement, utilisant respectivement des approches polyphase et ondelette basées image, afin de permettre la scalabilité spatiale avec une faible augmentation de la complexité.Ensuite, dans un second lieu, le design d’une architecture scalable à deux couches, plus conventionnelle, est étudié. Celle-ci est composée d’un encodeur HEVC standard dans la couche de base pour assurer la compatibilité avec les systèmes existants. Pour la couche d’amélioration, un encodeur basse complexité, se basant sur l’adaptation locale de la résolution spatiale, est proposé. Enfin, la dernière partie de cette thèse se focalise sur l’adaptation de la résolution spatio-temporelle. Un algorithme faisant varier la fréquence image est d’abord proposé. Cet algorithme est capable de détecter localement et de façon dynamique la fréquence image la plus basse n’introduisant pas d’artefacts visibles liés au mouvement. Les algorithmes de fréquence image variable et de résolution spatiale adaptative sont ensuite combinés afin d’offrir un codage scalable à faible complexité des contenus 4KHFR
The definition of the latest Ultra-High Definition TV (UHDTV) standard aims to increase the user’s quality of experience by introducing new video signal features such as 4K and High Frame-Rate (HFR). However, these new features multiply by a factor 8 the amount of data to be processed before transmission to the end user.In addition to this new format, broadcasters and Over-The-Top (OTT) content providers have to encode videos in different formats and at different bitrates due to the wide variety of devices with heterogeneous video format and network capacities used by consumers.SHVC, the scalable extension of the latest video coding standard High Efficiency Video Coding (HEVC) is a promising solution to address these issues but its computationally demanding architecture reaches its limit with the encoding and decoding of the data-heavy newly introduced immersive video features of the UHDTV video format.The objective of this thesis is thus to investigate lightweight scalable encoding approaches based on the adaptation of the spatio-temporal resolution. The first part of this document proposes two pre-processing tools, respectively using polyphase and wavelet frame-based approaches, to achieve spatial scalability with a slight complexity overhead.Then, the second part of this thesis addresses the design of a more conventional dual-layer scalable architecture using an HEVC encoder in the Base Layer (BL) for backward compatibility and a proposed low-complexity encoder, based on the local adaptation of the spatial resolution, for the Enhancement Layer (EL).Finally, the last part of this thesis investigates spatiotemporal resolution adaptation. A variable frame-rate algorithm is first proposed as pre-processing. This solution has been designed to locally and dynamically detect the lowest frame-rate that does not introduce visible motion artifacts. The proposed variable frame-rate and adaptive spatial resolution algorithms are then combined to offer a lightweight scalable coding of 4K HFR video contents
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Trioux, Anthony. "Étude et optimisation d'un système de vidéotransmission conjoint source-canal basé "SoftCast". Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2019. http://www.theses.fr/2019UPHF0018.

Texto completo
Resumen
Des nouveaux schémas de Codage Vidéo Linéaire (CVL) ont démontré ces dernières années un potentiel élevé pour la diffusion de contenus vidéo sur des canaux de transmission sans-fil sévères. SoftCast représente le pionnier des schémas CVL. Différent des standards de transmission vidéo actuels et particulièrement utile en situation de broadcast, SoftCast est un système de codage conjoint source-canal où les pixels sont traités par des opérations linéaires successives (transformée DCT, allocation de puissance, modulation quasi-analogique) et directement transmis sans quantification ni codage (entropique ou de canal). SoftCast permet ainsi d’offrir une qualité vidéo reçue directement proportionnelle à la qualité du canal de transmission, sans aucune information de retour et tout en évitant les mécanismes d’adaptation complexes des schémas classiques. Un premier objectif de ces travaux de thèse concerne l’étude des performances de bout en bout de SoftCast. Des modèles théoriques sont ainsi proposés prenant en compte les contraintes de bande passante de l’application, l’allocation de puissance, ainsi que le type de décodeur utilisé à la réception (LLSE, ZF). Une deuxième partie basée sur une campagne de tests subjectifs concerne une étude originale de la qualité vidéo et des artefacts spécifiques associés à SoftCast. Dans une troisième partie, des méthodes de prétraitement permettant d’accroître la qualité reçue sont proposées avec un gain moyen en PSNR de l’ordre de 3 dB. Finalement, un algorithme adaptatif modifiant la taille du groupe d’images (GoP) en fonction des caractéristiques du contenu vidéo transmis est proposé. Cette solution permet d’obtenir des gains supplémentaires en PSNR de l’ordre de 1 dB
Linear video coding (LVC) schemes have recently demonstrated a high potential for delivering video content over challenging wireless channels. SoftCast represents the pioneer of the LVC schemes. Different from current video transmission standards and particularly useful in broadcast situation, SoftCast is a joint source-channel coding system where pixels are processed by successive linear operations (DCT transform, power allocation, quasi-analog modulation) and directly transmitted without quantization or coding (entropic or channel). This allows to provide a received video quality directly proportional to the transmission channel quality, without any feedback information, while avoiding the complex adaptation mechanisms of conventional schemes. A first contribution of this thesis is the study of the end-to-end performances of SoftCast. Theoretical models are thus proposed taking into account the bandwidth constraints of the application, the power allocation, as well as the type of decoder used at the reception (LLSE, ZF). Based on a subjective test campaign, a second part concern an original study of the video quality and specific artifacts related to SoftCast. In a third part, preprocessing methods are proposed to increase the received quality in terms of PSNR scores with an average gain of 3 dB. Finally, an adaptive algorithm modifying the size of the group of pictures (GoP) according to the characteristics of the transmitted video content is proposed. This solution allows to obtain about 1 dB additional gains in terms of PSNR scores
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Elhamzi, Wajdi. "Définition et implantation matérielle d'un estimateur de mouvement configurable pour la compression vidéo adaptative". Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-01016351.

Texto completo
Resumen
L'objectif de cette thèse est la conception d'une plateforme de compression vidéo de nouvelle génération à haut degré d'adaptation vis-à-vis de l'environnement. Ce besoin d'adaptabilité a plusieurs origines. D'une part les systèmes actuels visent à s'adapter à la diversité et l'hétérogénéité des médias et des terminaux actuels. D'autre part, l'exploitation de l'information contenue dans une scène vidéo dépend de l'application visée et des besoins des utilisateurs. Ainsi, l'information peut être exploitée de manière complètement inhomogène spatialement ou temporellement. En effet, l'exploitation spatiale de la scène peut être irrégulière par définition, par la définition automatique ou manuelle de zones d'intérêts dans l'image. La qualité de la vidéo, donc de la compression, doit pouvoir s'adapter afin de limiter la quantité de donnée à transmettre. Cette qualité est donc dépendante de l'évolution de la scène vidéo elle-même. Une architecture matérielle configurable a été proposée dans cette thèse permettant de supporter différents algorithmes de recherche en offrant une précision subpixélique.La synthèse des travaux menés dans ce domaine et la comparaison objective des résultats obtenus par rapport à l'état de l'art. L'architecture proposée est synthétisée à base d'un FPGA Virtex 6 FPGA, les résultats obtenus pourraient traiter l'estimation du mouvement pixélique avec un flux vidéo haute définition (HD 1080), respectivement à 13 images par seconde en utilisant la stratégie de recherche exhaustive (108K Macroblocs/s) et jusqu'à 223 images par seconde avec la recherche selon un grille en diamant (1,8 M Macroblocs /s). En outre le raffinement subpixélique en quart-pel est réalisé à Macroblocs 232k/ s
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

de, Cuetos Philippe. "Streaming de Vidéos Encodées en Couches sur Internet avec Adaptation au Réseau et au Contenu". Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00000489.

Texto completo
Resumen
Dans cette thèse nous proposons de nouvelles techniques et de nouveaux algorithmes pour améliorer la qualité des applications de streaming vidéo sur Internet. Nous formulons des problèmes d'optimisation et obtenons des politiques de contrôle pour la transmission sur le réseau Internet actuel sans qualité de service. Cette thèse étudie des techniques qui adaptent la transmission à la fois aux conditions variables du réseau (adaptation au réseau) et aux caractéristiques des vidéos transmises (adaptation au contenu). Ces techniques sont associées au codage en couche de la vidéo et au stockage temporaire de la vidéo au client. Nous évaluons leurs performances à partir de simulations avec des traces réseau (connexions TCP) et à partir de vidéos encodées en MPEG-4 FGS. Nous considérons tout d'abord des vidéos stockées sur un serveur et transmises sur une connexion TCP-compatible sans perte. Nous comparons les mécanismes d'ajout/retranchement de couches et de changement de versions; nous montrons que la flexibilité du codage en couches ne peut pas compenser, en général, le surcoût en bande passante par rapport au codage vidéo conventionnel. Deuxièmement, nous nous concentrons sur une nouvelle technique de codage en couches, la scalabilité à granularité fine (dite FGS), qui a été conçue spécifiquement pour le streaming vidéo. Nous proposons un nouveau cadre d'étude pour le streaming de vidéos FGS et nous résolvons un problème d'optimisation pour un critère qui implique la qualité des images et les variations de qualité durant l'affichage. Notre problème d'optimisation suggère une heuristique en temps réel dont les performances sont évaluées sur des protocoles TCP-compatibles différents. Nous montrons que la transmission sur une connexion TCP-compatible très variable, telle que TCP, résulte en une qualité comparable à une transmission sur des connexions TCP-compatibles moins variables. Nous présentons l'implémentation de notre heuristique d'adaptation dans un système de streaming de vidéos MPEG-4. Troisièmement, nous considérons le cadre d'étude général du streaming optimisé suivant les caractéristiques débit-distorsion de la vidéo. Nous analysons des traces débit-distorsion de vidéos de longue durée encodées en MPEG-4 FGS, et nous observons que le contenu sémantique a un impact important sur les propriétés des vidéos encodées. A partir de nos traces, nous examinons le streaming optimal à différents niveaux d'agrégation (images, groupes d'images, scènes); nous préconisons l'adaptation optimale scène par scène, qui donne une bonne qualité pour une faible complexité de calcul. Finalement, nous proposons un cadre d'optimisation unifié pour la transmission de vidéos encodées en couches sur des canaux à pertes. Le cadre d'étude proposé combine l'ordonnancement, la protection contre les erreurs par les FEC et la dissimulation d'erreur au décodeur. Nous utilisons des résultats sur les Processus de Décision de Markov (MDPs) à horizon infini et gain moyen, pour trouver des politiques de transmission optimales avec une faible complexité et pour un large éventail de mesures de qualité. Nous montrons qu'il est crucial de considérer la dissimulation d'erreur au décodeur dans la procédure d'optimisation de l'ordonnancement et de la protection contre les erreurs afin d'obtenir une transmission optimale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Aklouf, Mourad. "Video for events : Compression and transport of the next generation video codec". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG029.

Texto completo
Resumen
L'acquisition et la diffusion de contenus avec une latence minimale sont devenus essentiel dans plusieurs domaines d'activités tels que la diffusion d'évènements sportifs, la vidéoconférence, la télé-présence, la télé-opération de véhicules ou le contrôle à distance de systèmes. L'industrie de la diffusion en direct a connu une croissance en 2020, et son importance va encore croitre au cours des prochaines années grâce à l'émergence de nouveaux codecs vidéo à haute efficacité reposant sur le standard Versatile Video Coding(VVC)et à la cinquième génération de réseaux mobiles (5G).Les méthodes de streaming de type HTTP Adaptive Streaming (HAS) telles que MPEG-DASH, grâce aux algorithmes d'adaptation du débit de transmission de vidéo compressée, se sont révélées très efficaces pour améliorer la qualité d'expérience (QoE) dans un contexte de vidéo à la demande (VOD).Cependant, dans les applications où la latence est critique, minimiser le délai entre l'acquisition de l'image et son affichage au récepteur est essentiel. La plupart des algorithmes d'adaptation de débit sont développés pour optimiser la transmission vidéo d'un serveur situé dans le cœur de réseau vers des clients mobiles. Dans les applications nécessitant un streaming à faible latence, le rôle du serveur est joué par un terminal mobile qui va acquérir, compresser et transmettre les images via une liaison montante comportant un canal radio vers un ou plusieurs clients. Les approches d'adaptation de débit pilotées par le client sont par conséquent inadaptées. De plus, les HAS, pour lesquelles la prise de décision se fait avec une périodicité de l'ordre de la seconde ne sont pas suffisamment réactives lors d'une mobilité importante du serveur et peuvent engendrer des délais importants. Il est donc essentiel d'utiliser une granularité d'adaptation très fine afin de réduire le délai de bout-en-bout. En effet, la taille réduite des tampons d'émission et de réception afin de minimiser la latence rend plus délicate l'adaptation du débit dans notre cas d'usage. Lorsque la bande passante varie avec une constante de temps plus petite que la période avec laquelle la régulation est faite, les mauvaises décisions de débit de transmission peuvent induire un surcroit de latence important.L'objet de cette thèse est d'apporter des éléments de réponse à la problématique de la transmission vidéo à faible latence depuis des terminaux (émetteurs) mobiles. Nous présentons d'abord un algorithme d'adaptation de débit image-par-image pour la diffusion à faible latence. Une approche de type Model Predictive Control (MPC) est proposée pour déterminer le débit de codage de chaque image à transmettre. Cette approche utilise des informations relatives au niveau de tampon de l'émetteur et aux caractéristiques du canal de transmission. Les images étant codées en direct, un modèle reliant le paramètre de quantification (QP) au débit de sortie du codeur vidéo est nécessaire. Nous avons donc proposé un nouveau modèle reliant le débit au paramètre de quantification et à la distorsion de l'image précédente. Ce modèle fournit de bien meilleurs résultats dans le contexte d'une décision prise image par image du débit de codage que les modèle de référence de la littérature.En complément des techniques précédentes, nous avons également proposé des outils permettant de réduire la complexité de codeurs vidéo tels que VVC. La version actuelle du codeur VVC (VTM10) a un temps d'exécution neuf fois supérieur à celui du codeur HEVC. Par conséquent, le codeur VVC n'est pas adapté aux applications de codage et diffusion en temps réel sur les plateformes actuellement disponibles. Dans ce contexte, nous présentons une méthode systématique, de type branch-and-prune, permettant d'identifier un ensemble d'outils de codage pouvant être désactivés tout en satisfaisant une contrainte sur l'efficacité de codage. Ce travail contribue à la réalisation d'un codeur VVC temps réel
The acquisition and delivery of video content with minimal latency has become essential in several business areas such as sports broadcasting, video conferencing, telepresence, remote vehicle operation, or remote system control. The live streaming industry has grown in 2020 and it will expand further in the next few years with the emergence of new high-efficiency video codecs based on the Versatile Video Coding (VVC) standard and the fifth generation of mobile networks (5G).HTTP Adaptive Streaming (HAS) methods such as MPEG-DASH, using algorithms to adapt the transmission rate of compressed video, have proven to be very effective in improving the quality of experience (QoE) in a video-on-demand (VOD) context.Nevertheless, minimizing the delay between image acquisition and display at the receiver is essential in applications where latency is critical. Most rate adaptation algorithms are developed to optimize video transmission from a server situated in the core network to mobile clients. In applications requiring low-latency streaming, such as remote control of drones or broadcasting of sports events, the role of the server is played by a mobile terminal. The latter will acquire, compress, and transmit the video and transmit the compressed stream via a radio access channel to one or more clients. Therefore, client-driven rate adaptation approaches are unsuitable in this context because of the variability of the channel characteristics. In addition, HAS, for which the decision-making is done with a periodicity of the order of a second, are not sufficiently reactive when the server is moving, which may generate significant delays. It is therefore important to use a very fine adaptation granularity in order to reduce the end-to-end delay. The reduced size of the transmission and reception buffers (to minimize latency) makes it more difficult to adapt the throughput in our use case. When the bandwidth varies with a time constant smaller than the period with which the regulation is made, bad transmission rate decisions can induce a significant latency overhead.The aim of this thesis is to provide some answers to the problem of low-latency delivery of video acquired, compressed, and transmitted by mobile terminals. We first present a frame-by-frame rate adaptation algorithm for low latency broadcasting. A Model Predictive Control (MPC) approach is proposed to determine the coding rate of each frame to be transmitted. This approach uses information about the buffer level of the transmitter and about the characteristics of the transmission channel. Since the frames are coded live, a model relating the quantization parameter (QP) to the output rate of the video encoder is required. Hence, we have proposed a new model linking the rate to the QP of the current frame and to the distortion of the previous frame. This model provides much better results in the context of a frame-by-frame decision on the coding rate than the reference models in the literature.In addition to the above techniques, we have also proposed tools to reduce the complexity of video encoders such as VVC. The current version of the VVC encoder (VTM10) has an execution time nine times higher than that of the HEVC encoder. Therefore, the VVC encoder is not suitable for real-time encoding and streaming applications on currently available platforms. In this context, we present a systematic branch-and-prune method to identify a set of coding tools that can be disabled while satisfying a constraint on coding efficiency. This work contributes to the realization of a real-time VVC coder
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Abdallah, Alaeddine. "Mécanismes Cross-Layer pour le streaming vidéo dans les réseaux WIMAX". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14142/document.

Texto completo
Resumen
Poussé par la demande croissante de services multimédia dans les réseaux Internet à haut débit, la technologie WIMAX a émergé comme une alternative compétitive à la solution filaire d’accès à haut débit. L’IEEE 802.16 constitue une solution qui offre des débits élevés en assurant une qualité de service (QoS) satisfaisante. En particulier, elle est adaptée aux applications multimédia qui ont des contraintes de QoS à satisfaire. Cependant, avec la présence d’utilisateurs hétérogènes qui ont des caractéristiques diverses en termes de bande passante, de conditions radio et de ressources disponibles, de nouveaux défis posés doivent être résolus. En effet, les applications multimédia doivent interagir avec leur environnement pour informer le réseau d’accès de leurs besoins en QoS et s’adapter dynamiquement aux variations des conditions du réseau.Dans ce contexte, nous proposons deux solutions pour la transmission des flux vidéo sur les réseaux 802.16 sur la base de l’approche Cross-layer. Nous nous intéressons à la fois à la transmission unicast et multicast sur le lien montant et descendant d’une ou plusieurs cellules WIMAX.Premièrement, nous proposons une architecture Cross-Layer qui permet l’adaptation et l’optimisation du streaming vidéo en fonction des ressources disponibles. Nous avons défini une entité CLO (Cross-Layer Optimizer) qui exploite des messages de gestion des flux de service, échangés entre BS et SS, au niveau MAC, pour déterminer l’adaptation nécessaire et optimale afin d’assurer le bon fonctionnement de l’application. Les adaptations se produisent en deux temps, lors de l'admission du flux et au cours de la session de streaming. L’analyse des performances, par simulations, de notre solution montre l’efficacité du CLO à adapter, d’une façon dynamique, le débit vidéo en fonction des conditions du réseau afin d’assurer une QoS optimale.Deuxièmement, nous proposons une solution de streaming multicast des flux vidéo dans les réseaux WIMAX. Cette solution permet de trouver un compromis entre la diversité des clients, en termes de conditions radio, de schémas de modulation et de ressources disponibles, ainsi que le format de codage vidéo hiérarchique SVC, pour offrir la meilleure qualité vidéo y compris pour les clients ayant de faibles conditions radio. En effet, cette solution permet à chaque utilisateur d’obtenir une qualité vidéo proportionnellement à ses conditions radio et à sa bande passante disponible. Pour atteindre cet objectif, plusieurs groupes multicast sont formés par couches vidéo SVC. Cette solution permet d’optimiser davantage les ressources radio et ainsi d’augmenter la capacité globale du système
Driven by the increasing demand for multimedia services in broadband Internet networks, WIMAX technology has emerged as a competitive alternative to the wired broadband access solutions. The IEEE 802.16 is a solution that provides high throughput by ensuring a satisfactory QoS. In particular, it is suitable for multimedia applications that have strict QoS constraints. However, the users’ heterogeneity and diversity in terms of bandwidth, radio conditions and available resources, pose new deployment challenges. Indeed, multimedia applications need to interact with their environment to inform the access network about their QoS requirements and dynamically adapt to changing network conditions.In this context, we propose two solutions for video streaming over 802.16 networks based on Cross-Layer approach. We are interested in both unicast and multicast transmissions in uplink and downlink of one or more WIMAX cells.First, we proposed an architecture that enables Cross-Layer adaptation and optimization of video streaming based on available resources. We defined the entity CLO (Cross-Layer Optimizer) that takes benefits from service flow management messages, exchanged between BS and SS, at the MAC level, to determine the necessary adaptations / adjustment to ensure optimal delivery of the application. Adaptations occur at two epochs, during the admission of the video stream and during the streaming phase. The performance analysis, performed through simulations, shows the effectiveness of the CLO to adapt in a dynamic way, the video data rate depending on network conditions, and thus guarantee an optimal QoS.Second, we proposed a solution that enables IP multicast video delivery in WIMAX network. This solution allows finding the compromise between the diversity of end-user requirements, in terms of radio conditions, modulation schemes and available resources, along with the SVC hierarchy video format, to offer the best video quality even for users with low radio conditions. Indeed, we define a multicast architecture that allows each user to get a video quality proportionally to its radio conditions and its available bandwidth. Towards this end, several IP multicast groups are created depending on the SVC video layers. Subsequently, our solution allows optimizing the use of radio resources by exploiting the different modulations that can be selected by the end-users
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Bacquet, Anne-Sophie. "Transmission optimisée de flux vidéo haute définition H. 264/AVC et SVC sur ADSL2 : adaptation conjointe des paramètres de codage source et de transmission". Valenciennes, 2010. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/eae7153a-baf5-4519-95e2-77387529496c.

Texto completo
Resumen
L’éligibilité d’un client ADSL à un service vidéo dépend principalement de la longueur de sa ligne. Au delà d’une certaine distance, la transmission d’une vidéo au débit requis avec un niveau de qualité de service donné est impossible. Dans ces travaux nous avons proposé différentes solutions pour étendre la zone d’éligibilité aux services vidéo, et plus particulièrement les services haute définition. Elles s’appuient sur des techniques de réduction du débit du flux vidéo H. 264, dont les paramètres sont optimisés en termes de qualité reçue, conjointement avec les paramètres de transmission ADSL2. La première solution concerne un flux vidéo Haute Définition non scalable dont le débit est réduit grâce au transcodeur proposé. Le flux vidéo adapté est ensuite uniformément protégé et transmis sur ADSL2 selon les paramètres calculés lors de l’optimisation. Avec cette solution, l’éligibilité à été étendue de 1,2 Km en moyenne sur les lignes testées, avec une qualité visuelle résultante tout à fait acceptable. Les deux autres solutions concernent un flux vidéo scalable compressé avec l’extension scalable de H. 264/AVC. La première est basée sur une approche de réduction de débit hybride (scalabilité puis transcodage). Cette solution a permis d’améliorer la qualité des vidéos reçues avec des valeurs de PSNR jusqu’à 3dB supérieures. Ces premiers résultats avec SVC, nous ont conduits à évaluer les performances de ce codeur scalable pour des résolutions spatiales variables (CIF à Full-HD). Il est apparu que les performances de ce codec sont plus faibles pour les vidéos de résolutions inférieures. La dernière solution proposée pour l’extension d’éligibilité avec un flux vidéo scalable a donc été réalisée pour des vidéos de résolution CIF. Il s’agit d’une approche bi-résolution, où le flux vidéo scalable est scindé en deux parties d’importances variables, inégalement protégées. Cette proposition a permis d’améliorer les performances obtenues en comparaison avec une approche de protection égale jusqu'à 0. 5 dB
The eligibility of any ADSL subscriber to video services strongly depends on the length of his line. Beyond a given distance, video transmission is no more possible at the desired bit rate with a targeted quality of service level. In this work, we propose different solutions to extend the area of eligibility for high-definition video services. These solutions rely on bit rate adaptation techniques of the H. 264 compressed video streams, whose parameters are jointly optimized together with the ADSL2 transmission parameters in terms of received quality. In a first solution, we consider that the input high definition compressed video streams are non scalable: in this case, bit rate reduction is performed by means of appropriate transrating. The adapted video stream is then equally protected and transmitted according to optimal ADSL2 parameters. Thanks to this solution, eligibility was extended by 1. 2 km on average over the tested lines, with resultant satisfying visual quality. Two other solutions are then proposed when the input video stream is compressed thanks to the scalable extension of H. 264 named SVC. First, we propose a hybrid solution for bit rate adaptation, which relies on scalability then transrating. This solution improves the quality of received videos up to +3 dB in terms of PSNR values. Preliminary results obtained with the scalable extension of H. 264/AVC lead us to evaluate SVC performances for varying spatial resolutions (CIF to Full-HD). We show that the performances of this codec are reduced for lower resolutions videos. The last proposed solution for ADSL eligibility extension is finally presented for CIF resolution videos. It consists in a multi-resolution approach, where the scalable video stream is divided into two separated parts of variable relevance, which are therefore unequally protected. This proposal improves the performances up to 0. 5 dB obtained in comparison with an equal protection approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Hentati, Manel. "Reconfiguration dynamique partielle de décodeurs vidéo sur plateformes FPGA par une approche méthodologique RVC (Reconfigurable Video Coding)". Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0027.

Texto completo
Resumen
Les travaux présentés dans cette thèse s'inscrivent dans le cadre de la conception et l'implémentation des décodeurs reconfigurables en utilisant la norme MPEG-RVC. Cette norme est développée par MPEG. Elle permet une grande flexibilité et la réutilisation des normes existantes dans un processus de reconfiguration des solutions de décodage. RVC fournit une nouvelle spécification basée sur une modélisation à flux de données nommée RVC-CAL. Dans ce travail, nous proposons une méthodologie de prototypage rapide permettant une implémentation efficace et optimisée des décodeurs reconfigurables RVC sur des cibles matérielles. Notre flot de conception est basé sur l'utilisation de la reconfiguration dynamique partielle (RDP) afin de valider les approches de reconfiguration permises par la norme MPEG-RVC. En exploitant la technique RDP, le module matériel peut être remplacé par un autre module qui a la même fonction ou le même algorithme mais une architecture différente. Ce concept permet au concepteur de configurer différents décodeurs selon les données d'entrées ou ses exigences (temps de latence, la vitesse, la consommation de la puissance). La RDP peut être aussi utilisée pour réaliser une implémentation hiérarchique des applications RVC. L'utilisation de la norme MPEG-RVC et la RDP permet d'améliorer le processus de développement ainsi que les performances du décodeur. Cependant, la RDP pose plusieurs problèmes tels que le placement des tâches et la fragmentation du FPGA. Ces problèmes ont une influence sur les performances de l'application. Pour remédier à ces problèmes, nous avons proposé une approche de placement hors ligne qui est basée sur l'utilisation d'une méthode d'optimisation, appelée la programmation linéaire. L'application de cette approche sur différentes combinaisons de données ainsi que la comparaison avec une autre méthode ont montré l'efficacité et les performances de l'approche proposée
The main purpose of this PhD is to contribute to the design and the implementation of a reconfigurable decoder using MPEGRVC standard. The standard MPEG-RVC is developed by MPEG. Lt aims at providing a unified high-level specification of current and future MPEG video coding technologies by using dataflow model named RVC-CAL. This standard offers the means to overcome the lack of interpretability between many video codecs deployed in the market. Ln this work, we propose a rapid prototyping methodology to provide an efficient and optimized implementation of RVC decoders in target hardware. Our design flow is based on using the dynamic partial reconfiguration (DPR) to validate reconfiguration approaches allowed by the MPEG-RVC. By using DPR technique, hardware module can be replaced by another one which has the same function or the same algorithm but a different architecture. This concept allows to the designer to configure various decoders according to the data inputs or her requirements (latency, speed, power consumption,. . ). The use of the MPEG-RVC and the DPR improves the development process and the decoder performance. But, DPR poses several problems such as the placement of tasks and the fragmentation of the FPGA area. These problems have an influence on the application performance. Therefore, we need to define methods for placement of hardware tasks on the FPGA. Ln this work, we propose an off-line placement approach which is based on using linear programming strategy to find the optimal placement of hardware tasks and to minimize the resource utilization. Application of different data combinations and a comparison with sate-of-the art method show the high performance of the proposed approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Le, Guen Benjamin. "Adaptation du contenu spatio-temporel des images pour un codage par ondelettes". Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355207.

Texto completo
Resumen
Les limites de l'ondelette séparable standard, dans le cas 2D, sont bien connues. Le support rectangulaire fixe de l'ondelette ne permet pas d'exploiter la géométrie des images et en particulier les corrélations le long de contours courbes. Ceci se traduit par une dispersion de l'énergie des coefficients dans le domaine ondelette et produit un phénomène de rebonds gênant visuellement lors d'une approximation avec un petit nombre de coefficients. Pour y remédier, une seconde génération d'ondelettes est née. L'approche la plus courante est de déformer le noyau d'ondelette pour l'adapter au contenu géométrique d'une image.
Dans cette thèse, nous proposons d'aborder le problème d'adaptativité sous un angle différent. L'idée est de déformer le contenu d'une image pour l'adapter au noyau d'ondelette séparable standard. La déformation est modélisée par un maillage déformable et le critère d'adaptation utilisé est le coût de description de l'image déformée. Une minimisation énergétique similaire à une estimation de mouvement est mise en place pour calculer les paramètres du maillage. A l'issue de cette phase d'analyse, l'image est représentée par une image déformée de moindre coût de codage et par les paramètres de déformation. Après codage, transmission et décodage de ces inforrnations, l'image d'origine peut être synthétisée en inversant la déformation. Les performances en compression de ce schéma par analyse-synthèse spatiales sont étudiées et comparées à celles de JPEG2000. Visuellement, on observe une meilleure reconstruction des contours des images avec une atténuation significative de l'effet rebond.
Conservant l'idée d'adapter le contenu des images à un noyau de décomposition fixe, nous proposons ensuite un schéma de codage par analyse-synthèse spatio-temporelles dédié à la vidéo. L'analyse prend en entrée un groupe d'images (GOF) et génère en sortie un groupe d'images déformées dont le contenu est adapté à une décomposition 3D horizontale-verticale-temporelle fixe. Le schéma est conçu de sorte qu'une seule géométrie soit estimée et transmise pour l'ensemble du GOF. Des résultats de compression sont présentés en utilisant le maillage déformable pour modéliser la géométrie et le mouvement. Bien qu'une seule géométrie soit encodée, nous montrons que son coût est trop important pour permettre une amélioration significative de la qualité visuelle par rapport à un schéma par analyse-synthèse exploitant uniquement le mouvement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Derviaux, Christian. "Evaluation de la visibilité des effets de blocs dans le codage MPEG : application à l'amélioration de la qualité visuelle de séquences video". Valenciennes, 1998. http://www.theses.fr/1998VALE0032.

Texto completo
Resumen
La plupart des standards de compression video numérique actuels tels que les normes mpeg version 1 et 2, h261 et h263 sont basés sur un codage par transformation en cosinus discrète (tcd ou discrete cosine transform - dct - en anglais) et compensation de mouvement par appariement de blocs. Ils réalisent une subdivision des images en blocs carres de pixels qui sont transformés dans le domaine dct, avant d'être codés indépendamment. Afin de réaliser la compression, les coefficients dct subissent une quantification d'autant plus grossière que le taux de compression désiré est important. Cependant ce processus irréversible entraine l'apparition de discontinuités visibles le long des frontières de blocs dans les images décodées, couramment appelées effets de blocs ou artefacts de blocs. Parce que le système visuel humain est plus sensible aux motifs structures, et que de telles erreurs structurées et corrélées prévalent a l'intérieur des images décodées, nous définissons une nouvelle méthodologie afin de déterminer la visibilité des effets de blocs pour les séquences video. Notre approche est basée sur les propriétés perceptuelles de la vision humaine, et a nécessité la mise en place d'une procédure d'expérimentations psychophysiques, qui ont permis de développer une métrique objective qui inclut la sensibilité au contraste et aux fréquences spatiales, et les phénomènes de masquage spatial et temporel. La validation sur des images fixes puis sur des séquences video test a permis de vérifier une bonne corrélation avec les jugements d'observateurs. La seconde partie de ce mémoire présente une application de la mesure de visibilité développée précédemment à la réduction des effets de blocs dans les séquences video codées mpeg. Celle-ci repose sur l'utilisation d'un post-filtrage adaptatif implémentable en temps réel. L’adaptation consiste à modifier les coefficients d'un filtre de lissage variant dans l'espace en fonction des caractéristiques locales du signal vidéo et des effets de blocs. Les résultats de simulation ont été obtenus à partir de plusieurs séquences test : ils montrent que l'utilisation d'une telle structure de filtre permet une amélioration significative de la qualité visuelle de la séquence reconstruite, en atténuant de façon efficace les artefacts de codage présents, sans introduire de flou sur les contours ou les objets en mouvement a l'intérieur de la séquence.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Fatani, Imade Fahd Eddine. "Contribution à l’étude de l’optimisation conjointe source-canal d’une transmission vidéo dans un contexte MIMO sans fil : application à la vidéosurveillance embarquée pour les transports publics". Valenciennes, 2010. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/f1e3d785-7cbb-4d39-86d8-eec5433f62a0.

Texto completo
Resumen
Les applications de vidéosurveillance pour les transports publics s’appuient sur des systèmes de communication sans fil qui requièrent des débits élevés entre les véhicules et le sol et des critères de qualité de service élevés. Afin de répondre à ces contraintes, dans ce travail nous avons proposé de tenir compte à la fois des paramètres de transmission et de d’encodage vidéo en combinant les techniques de codage MDC (Multiple Description Coding) et de codage par zone d'intérêt (ROI, Region Of Interest) avec différentes schémas MIMO (Mulitple Input Multiple Output) sur la base de la couche PHY du standard Wifi IEEE802. 11n dans un environnement de type métro (tunnel). Dans un premier temps, nous avons montré qu'il est possible d'améliorer les performances d'un système MIMO en optimisant l'allocation des bits et des puissances indépendamment de l'information à transmettre. Nous proposons deux approches aboutissant à la répartition optimale des ressources qui permettent d'atteindre un ordre de diversité maximal et offrent de meilleures performances que le précodeur max-SNR dans le cas d’un canal corrélé ou non. Nous montrons ensuite que l’association d’un codage MDC avec des schémas MIMO constitue une stratégie intéressante afin d’adapter le contenu vidéo à la structure multi-antennes, en particulier lorsqu’aucune connaissance de l’état du canal n’est pas disponible en émission. En outre, il est possible d'améliorer les performances en utilisant un lien retour à faible débit grâce aux techniques OSM (Orthogonalized Spatial Multiplexing) et à l’OSM précodé. Enfin, dans le cas où la connaissance du canal à l’émission est parfaite, pour un lien retour offrant un débit suffisant, nous avons associé les techniques MIMO et un mécanisme de codage vidéo hiérarchique qui consiste en la séparation de la scène en régions d'intérêt. Le flux correspondant à la zone d’intérêt maximal est transmis sur le canal propre de plus grand gain. Ceci permet d'assurer une meilleure robustesse de transmission et garantit ainsi un niveau acceptable pour la QoS perçue par le centre de contrôle. La création des différentes régions d’intérêt s’appuie sur l’outil FMO (Flexible Macroblock Ordering) introduit dans le nouveau standard de compression H. 264/AVC. Ainsi, les différents schémas de transmission proposés permettent d’accroître la qualité de service d’un flux vidéo sans augmenter la puissance émise ni multiplier le nombre de points d’accès radio de l’infrastructure
Video monitoring applications in the Public Transport field rely on wireless telecommunication systems which require high data rate between vehicles and the ground and high Quality of Service (QoS). In order to satisfy these constraints we have proposed to take into account both transmission parameters and video coding by combining Multiple Description Coding (MDC) and Region Of Interest coding with different MIMO (Mulitple Input Multiple Output) schemes on the basis of the PHY layer of IEEE802. 11n Wifi standard in a metro environment (tunnel). First, we have shown that it is possible to increase the performance of a MIMO system by optimizing bits and power allocation independently of the type of information to be transmitted. Two approaches are proposed. They lead to an optimal repartition of resources, reach maximal diversity order and they outperform the max-SNR precoder performances. Secondly, the association of MDC with MIMO schemes is introduced to adapt the video content to the multi antenna structure particularly when the channel knowledge is not available at transmitter side. Furthermore, the performances can be enhanced using a low data rate return link and considering the Orthogonalized Spatial Multiplexing (OSM) and the precoded OSM. When perfect channel information is available at transmitter side thanks to a high data rate return link, MIMO schemes are associated with hierarchic video coding consisting in the separation of regions of interest in the scene. The stream associated to the area with the maximal interest is transmitted on the eigen channel with the higher gain. This strategy allows to guaranty better robustness and acceptable QoS of the video streams observed in the control-center. The creation of the different regions of interest is based on the Flexible Macroblock Ordering (FMO) technique introduced in the new compression standard H. 264/AVC. We have shown the interest of the different transmission schemes proposed in order to enhance the QoS of a video stream with no increase of the transmitted power and of the number of radio access points along the infrastructure
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Ahmed, Toufik. "Adaptative packet video streaming over IP networks : a cross layer approach". Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0042.

Texto completo
Resumen
Nous constatons aujourdh'hui une forte demande de services vidéo sur les réseaux IP. Cependant, plusieurs caractéristiques de ces réseaux font que le déploiement à grande échelle de tels services présente un réel challenge par rapport à des applications telles que l'émail et le Web. Ces applications audiovisuelles doivent faire face aux différentes variations de la bande passante et du délai de transfert, tout en restant robuste aux pertes de paquets et aux erreurs de transmission. Cette thèse examine donc ces différents problèmes et présente un système de diffusion vidéo adaptatif et intégré ("cross-layer"), qui résout certains problèmes induits par le transport de la vidéo en mode paquet sur les réseaux IP avec garantie statistique de la qualité de service (i. E. IP Diffser). Les flux vidéo sont généralement compressés selon la norme MPEG-4 qui permet d'assurer une utilisation optimale de la bande passante ainsi qu'un meilleur degré d'intéractivité basé sur la description structurelle des flux. L'originalité de MPEG-4 est de fournir une représentation objet du contenu multimédia qui peut être naturel ou de synthèse afin de le transporter sur une large variété d'infrastructures de communication. L'originalité de notre contribution est de proposer un système adaptatif de diffusion vidéo respectant l'approche intégrée ou également appelée "cross-layer". En effet, tandis que la plupart des travaux de recherche dans ce domaine respectent le paradigme d'isolation et d'indépendance des couches protocolaires hérité du modèle de référence ISO, notre approche conceptuelle supprime cette limite en autorisant une meilleure prise en charge de la sémantique
While there is an increasing demand for streaming video applications on IP networks, various network characteristics make the deployment of these applications more challenging than traditional internet applications like email and web. These applications that transmit audiovisual data over IP must cope with the time varying bandwidth and delay of the network and must be resilient to packet loss and error. This dissertation thesis examines these challenges and presents a cross layer video streamin over large scale IP networks with statistical quality of service (QoS) guarantee. Video sequences are typically compressed according to the emerging MPEG-4 multimedia framework to achieve bandwidth efficiency an content-based interactivity. The original characteristic of MPEG-4 is to provide an integrated object-oriented representation and coding of natural and synthetic audio-visual content for manipulating and transporting over a broad range of communication infrastructures. The originality of this work is to propose a cross-layer approach for resolving some of the critical issues on delivering packet video data over IP networks with satisfactory quality of service. While, current and past works on this topic respect the protocol layer isolation paradigm, the key idea behind our work is to break this limitation and to rather inject content-level semantic and service-level requirement within the proposed IP video transport mechanics and protocols
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Viswanathan, Kartik. "Représentation reconstruction adaptative des hologrammes numériques". Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0012/document.

Texto completo
Resumen
On constate une forte augmentation de l’intérêt porté sur l’utilisation des technologies vidéo 3D pour des besoins commerciaux, notamment par l’application de l’holographie, pour fournir des images réalistes, qui semblent vivantes. Surtout, pour sa capacité à reconstruire tous les parallaxes nécessaires, afin de permettre de réaliser une vision véritablement immersive qui peut être observée par quiconque (humains, machine ou animal). Malheureusement la grande quantité d'information contenue dans un hologramme le rend inapte à être transmis en temps réel sur les réseaux existants. Cette thèse présente des techniques afin de réduire efficacement la taille de l'hologramme par l'élagage de portions de l'hologramme en fonction de la position de l'observateur. Un grand nombre d'informations contenues dans l'hologramme n'est pas utilisé si le nombre d'observateurs d'une scène immersive est limité. Sous cette hypothèse, éléments de l'hologramme peuvent être décomposés pour que seules les parties requises sensibles au phénomène de diffraction vers un point d'observation particulier soient conservés. Les reconstructions de ces hologrammes élagués peuvent être propagées numériquement ou optiquement. On utilise la transformation en ondelettes pour capter les informations de fréquences localisées depuis l'hologramme. La sélection des ondelettes est basée sur des capacités de localisation en espace et en fréquence. Par exemple, les ondelettes de Gabor et Morlet possèdent une bonne localisation dans l'espace et la fréquence. Ce sont des bons candidats pour la reconstruction des hologrammes suivant la position de l'observateur. Pour cette raison les ondelettes de Shannon sont également utilisées. De plus l'application en fonction du domaine de fréquence des ondelettes de Shannon est présentée pour fournir des calculs rapides de l'élagage en temps réel et de la reconstruction
With the increased interest in 3D video technologies for commercial purposes, there is renewed interest in holography for providing true, life-like images. Mainly for the hologram's capability to reconstruct all the parallaxes that are needed for a truly immersive views that can be observed by anyone (human, machine or animal). But the large amount of information that is contained in a hologram make it quite unsuitable to be transmitted over existing networks in real-time. In this thesis we present techniques to effectively reduce the size of the hologram by pruning portions of the hologram based on the position of the observer. A large amount of information contained in the hologram is not used if the number of observers of an immersive scene is limited. Under this assumption, parts of the hologram can be pruned out and only the requisite parts that can cause diffraction at an observer point can be retained. For reconstructions these pruned holograms can be propagated numerically or optically. Wavelet transforms are employed to capture the localized frequency information from the hologram. The selection of the wavelets is based on the localization capabilities in the space and frequency domains. Gabor and Morlet wavelets possess good localization in space and frequency and form good candidates for the view based reconstruction system. Shannon wavelets are also employed for this cause and the frequency domain based application using the Shannon wavelet is shown to provide fast calculations for real-time pruning and reconstruction
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Kimiaei, Asadi Mariam. "Adaptation de contenu multimedia avec MPEG 21 : conversion de ressources et adaptation sémantique de scènes". Paris, ENST, 2005. http://www.theses.fr/2005ENST0040.

Texto completo
Resumen
L'objectif de cette thèse de doctorat est de proposer des techniques et des méthodologies nouvelles, simples et efficaces pour l'adaptation de contenu multimédia à diverses contraintes de contexte d’utilisation. Le travail est basé sur la norme MPEG-21 qui vise à définir les différents composants d'un système de distribution de contenus multimédia. Le travail de cette thèse est divisé en deux parties principales : l'adaptation de médias uniques, et l'adaptation sémantique de documents multimédia composé. Dans l'adaptation de médias uniques, le média est adapté aux contraintes du contexte de consommation, telles que les capacités du terminal, les préférences de l'utilisateur, les capacités du réseau, les recommandations de l'auteur, etc. . . Dans cette forme d'adaptation, le média est considéré hors de tout contexte de présentation multimédia structurée. Nous avons défini des outils et descripteurs, étendant les outils et descripteurs MPEG-21 DIA, pour la description des suggestions d’adaptation et la description des paramètres correspondants. Dans l'adaptation sémantique de documents multimédia structurés, adaptation est considérée selon les relations temporelles, spatiales et sémantiques entre les objets média de la scène. En adaptant une présentation multimédia afin de préserver l'uniformité et la logique de la scène adaptée, le processus d'adaptation doit avoir accès à l'information sémantique de la présentation. Nous avons défini un langage d’extension de la description de scène pour l'expression de cette information sémantique. Pour la réalisation d’un tel système d’adaptation, nous avons utilisé SMIL 2. 0 pour décrire nos scènes multimédia
The objective of this Ph. D. Thesis is to propose new, simple and efficient techniques and methodologies for support of multimedia content adaptation to constrained contexts. The work is based on parts of the on-going MPEG-21 standard that aims at defining different components of a multimedia distribution framework. The thesis is divided into two main parts: single media adaptation and semantic adaptation of multimedia composed documents. In single media adaptation, the media is adapted to the context constraints, such as terminal capabilities, user preferences, network capacities, author recommendations and etc. In this type of adaptation, the media is considered solely, i. E. As mono media. We have defined description tools extending the MPEG-21 DIA schema, for description of hints and suggestions on different media adaptations and their corresponding parameters. In semantic adaptation of structured multimedia documents, we addressed the question of adaptation based on temporal, spatial and semantic relationships between the media objects. When adapting a multimedia presentation, in order to preserve the consistency and meaningfulness of the adapted scene, the adaptation process needs to have access to the semantic information of the presentation. We have defined a language as a set of descriptors, for the expression of semantic information of composed multimedia content. In our implementations, we used SMIL 2. 0 for describing multimedia scenes
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Brunel, Lionel. "Indexation vidéo par l'analyse de codage". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00214113.

Texto completo
Resumen
Ce travail de thèse porte sur l'indexation, normalisée par MPEG7, de séquences vidéos. A partir d'un flux MPEG1-2, ou de tout autre codec basé sur la prédiction de mouvement et la DCT, sans totalement le décompresser, nous exploitons l'analyse effectuée lors du codage. Ainsi de façon non-supervisée et en quasi temps réel, nous proposons une méthode d'estimation du mouvement de la caméra ainsi que d'extraction des objets en déplacement. Pour l'estimation du mouvement de la caméra, nous utilisons les vecteurs de prédiction temporelle présents dans le flux. L'étude des images d'erreur nous permet d'en évaluer la pertinence. Pour la détection des objets en mouvement, nous segmentons tout d'abord la séquence en zones de couleur uniforme directement sur les coefficients DCT. Nous établissons une distance colorimétrique, non seulement entre deux pixels voisins d'une image, mais aussi entre deux images successives, ce qui définit une zone en trois dimensions. Afin de segmenter plus précisément et de régulariser les contours sur chaque image, nous utilisons les B-Splines. Chaque objet candidat est déformé par la présence de tous ses voisins à partir d'un potentiel de couleur, ce qui, itérativement, permet d'éliminer les zones trop réduites. En combinant le mouvement de la caméra, les vecteurs de prédiction et les zones de couleur 2D+t, nous réalisons une fusion adaptative de façon à obtenir une bonne représentation des objets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Huchet, Gregory. "Nouvelles méthodes de codage vidéo distribué". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26267/26267.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Lahsini, Cyrine. "Codage distribué pour la compression vidéo". Télécom Bretagne, 2013. http://www.theses.fr/2013TELB0175.

Texto completo
Resumen
Dans les systèmes de codage vidéo classique, la complexité de l'encodeur est 5 à 10 fois supérieure à celle du décodeur. Ce schéma de conception asymétrique est adapté à la transmission de vidéo à partir d'un serveur vers des terminaux mobiles mais ne convient pas à l'envoi de vidéo par des terminaux mobiles vers une station de base. Pour ce genre d'application, il est plus judicieux de rechercher un schéma de codage dual du précédent avec un encodeur de complexité relativement limité et un décodeur disposant d'une puissance de traitement plus importante. Le codage vidéo distribué, appelé aussi codage de Wyner-Ziv (en anglais Distributed video coding) est un nouveau paradigme en codage vidéo qui permet de combiner la faible complexité et la robustesse du codage des images en mode Intra avec l'efficacité de compression des images en mode Inter. En première partie, nous avons étudié le principe de codage vidéo distribué dans le domaine pixel. Pour améliorer les performances de ce schéma de référence, nous avons introduit à la réception le décodeur de source BCJR qui permet d'exploiter la corrélation de la source vidéo. En effet, un flux vidéo présente, naturellement, une grande quantité de corrélation temporelle entre les images successives de la séquence et spatiale au sein d'une image entre ses différents pixels. Le but de notre étude est de proposer une nouvelle architecture qui permet d'exploiter, outre la corrélation temporelle, la corrélation spatiale des images Wyner-Ziv. La source est considérée comme étant markovienne, cette caractéristique signifie que cette source a une information résiduelle redondante fournissant des informations supplémentaires pour le récepteur qui peut être exploitée pour corriger certaines erreurs introduites par le canal virtuel, à travers un schéma de décodage conjoint source-canal. La deuxième partie de la thèse a été consacrée à l'implémentation d'un nouveau schéma de codage vidéo à faible complexité à l'encodeur adapté aux applications qui disposent d'une puissance de calcul réduite à l'émetteur. Nous avons fait l'étude dans les domaines pixel et transformé. Les schémas proposés permettent d'exploiter à la fois les corrélations temporelle et spatiale de la séquence vidéo, en introduisant un codeur arithmétique qui sera utilisé alternativement avec le turbo code. Dans le domaine pixel, nous avons considéré une taille de GOP plus grande que l, les images clés (comme dans le codage vidéo distribué) sont codées et décodées à l'aide d'un codec intra. Pour les images restantes du GOP, nous exploitons la corrélation temporelle en utilisant un codeur entropique (codeur arithmétique) seulement pour les deux plans de bits les plus significatifs. Les autres plans de bits sont codés en utilisant un code turbo. Dans le domaine transformé, la corrélation temporelle a été exploitée en utilisant le codeur arithmétique pour seulement les coefficients DC. Les autres coefficients de la transformation DCT sont codés en utilisant le code turbo
Traditional Video coding systems such as H-26x or MPEG-X uses a motion-compensated predictive coding at the encoder to exploit temporal dependencies between successive frames of a video sequence. In these systems, the complexity of the encoder is 5 to 10 times greater than that of the decoder. This scheme of asymmetrical model is suitable for the transmission of video from a server to mobile devices, but not suitable for sending video via mobile devices to a base station. For this type of application, it is better to search an encoding scheme of the previous dual encoder with a relatively low complexity and decoder with a higher processing power. Distributed video coding, also called Wyner-Ziv coding is a new video coding paradigm which combines low complexity and robustness of frame coding in Intra mode with compression efficiency of Inter-mode coding frame. With the advent of turbo codes in the 90s, this technique has experienced a resurgence of interest. In the first part, we studied the principle of distributed video coding in the pixel domain. To improve the performance of the reference model, we introduced at the reception the BCJR source decoder which exploits the correlation of the source video. Indeed, a video stream has, indeed, a large amount of temporal correlation between successive frames of the sequence and space within a frame between its pixels. The aim of our study is to propose a new architecture that allows the exploitation, in addition to temporal correlation, the spatial correlation of Wyner-Ziv frames. The source is considered as Markovian source, this feature means that this source has a residual redundant information providing additional information to the receiver which can be used to correct some errors introduced by the virtual channel, through a scheme of joint source-channel decoding. The second part of the thesis was devoted to the implementation of a new video coding scheme with low complexity encoder suitable for applications that have limited computational power at the transmitter. The study is performed at pixel and transform domain. The proposed schemes can exploit both temporal and spatial correlation of the video sequence, introducing an arithmetic coder to be used alternately with the turbo code. In the pixel domain, we considered a size larger than the GOP, keyframes (as in the distributed video coding) is encoded and decoded using a codec intra. For the remaining frames of the GOP, we exploit the temporal correlation using an entropy encoder (arithmetic encoder) only for the two most significant bitplanes. The other bitplanes are encoded using a turbo code. In the transform domain, the temporal correlation has been exploited by using the arithmetic encoder for only the DC coefficients. Other DCT coefficients are encoded using turbo code
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Huchet, Grégory. "Nouvelles méthodes de codage vidéo distribué". Doctoral thesis, Université Laval, 2009. http://hdl.handle.net/20.500.11794/20836.

Texto completo
Resumen
De nos jours certaines applications vidéo de par des limitations de mémoire et de capacités de calculs requièrent un système où l'encodage d'une séquence vidéo doit être le plus simple possible. Le codage vidéo distribué nouveau paradigme de la compression vidéo semble prometteur pour ce genre de demande. Il permet une compression peu complexe de séquences animées. Son principe repose sur les travaux de D. Slepian et J. K. Wolf [1] ainsi que ceux de A. D. Wyner et J. Ziv [2] menés dans les années 70. La présente thèse énonce trois différentes contributions relatives au codage vidéo conventionnel et distribué. La première est un nouveau procédé de filtrage vidéo basé sur l'utilisation d'arbres de décision. Afin de réduire les artefacts visuels issus d'une trop forte compression, les arbres de décision identifient et appliquent les meilleurs coefficients de filtrage en fonction des données à filtrer. La seconde contribution concerne un schéma de codage vidéo distribué où l'on évite de transmettre au décodeur 1 information relative aux blocs de l'image les moins significatifs. De cette manière, on engendre une diminution importante du débit binaire et une réduction de la complexité de décodage. Ce schéma de codage repose sur une séparation en couche des coefficients de transformée en cosinus discret de l'image. Les coefficients DC sont les premiers à être transmis au décodeur. De là, ils sont analysés par ce dernier afin de trouver les blocs les plus significatifs de l'image. Le décodeur indique alors à l'encodeur, via un canal de retour, quels sont les coefficients AC des blocs à transmettre. Enfin, la dernière contribution consiste en une méthode de représentation binaire adaptative des images dans les procédés de codage vidéo distribué. Cette représentation permet de réduire efficacement le débit binaire et tenant compte uniquement de l'information source la plus pertinente. Ici encore cette méthode repose sur une utilisation plus efficace d 'un canal de retour.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Maugey, Thomas. "Codage vidéo distribué de séquences multi-vues". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00577147.

Texto completo
Resumen
Depuis 2002, le codage vidéo distribué a connu un véritable essor de par ses résultats théoriques séduisants, et ses applications potentielles attractives. En effet, avec ce mode de compression, toute comparaison inter-image est transférée au décodeur, ce qui implique une baisse considérable de la complexité à l'encodeur, et de plus, un encodage indépendant des caméras dans le cas de compression multi-vues. Cette thèse a pour but de proposer de nouvelles solutions dans le domaine du codage vidéo distribué, et particulièrement dans son application aux systèmes multi-caméra. Ces contributions se présentent sous plusieurs aspects : un nouveau modèle débit-distorsion et sa mise en pratique sur trois probléma- tiques, de nouvelles méthodes de construction de l'information adjacente et enfin une étude approfondie du décodeur des trames Wyner-Ziv. Ces nouvelles approches ont toutes pour but d'améliorer les performances débit-distorsion ou de permettre une compréhension plus précise du comportement du codeur. Celles-ci sont exposées en détail dans ce manuscrit avec au préalable une explication complète du contexte dans lequel elles s'inscrivent.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Feideropoulou, Georgia. "Codage Conjoint Source-Canal des Sources Vidéo". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001294.

Texto completo
Resumen
L'objet de cette thèse est de proposer un codage conjoint source-canal de séquences vidéo pour la transmission sur des canaux sans fil. Le système de codage conjoint source-canal est fondée sur un quantificateur vectoriel structuré et une assignation linéaire d'étiquette qui minimisent simultanément la distorsion canal et la distorsion source. Le quantificateur vectoriel qui est construit à partir de constellations provenant de réseaux de points, lesquels satisfont la propriété de diversité maximale, minimise la distorsion source d'une source gaussienne. La distorsion canal est également minimisée par l'étiquetage linéaire. Nous avons étudié les dépendances entre les coefficients d'ondelettes provenant d'une décomposition t+2D, avec ou sans estimation de mouvement afin d'étendre le schéma du codage conjoint source-canal, développé pour les sources gaussiennes, dans le domaine vidéo où la distribution des coefficients est loin d'être gaussienne. Nous proposons un modèle doublement stochastique afin de capturer ces dépendances et nous l'appliquons à la protection des erreurs pour prédire les coefficients perdus et améliorer ainsi la qualité de vidéo. Dans le cas d'un canal gaussien, nous développons deux systèmes, un avec un étiquetage linéaire non codé et l'autre avec un étiquetage linéaire codé utilisant des codes de Reed-Muller. Nous comparons ces deux schémas de codage avec un schéma non-structuré dont l'étiquetage est adapté au canal et avec un coder vidéo scalable. Dans le cas d'un canal de Rayleigh non-sélectif à évanouissements indépendants le schéma devient robuste lorsque nous utilisons une matrice de rotation avant la transmission sur le canal.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Haj, Taieb Mohamed. "Codage vidéo distribué utilisant les turbo codes". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30170/30170.pdf.

Texto completo
Resumen
La charge de traitement de la compression vidéo est généralement assurée au niveau de l’émetteur dans les standards conventionnels de codage vidéo (MPEG, H.263, H.264/AVC [1]). Ce choix est dû au fait que l’émetteur dispose d’une connaissance totale de la source lui permettant d’assurer facilement et efficacement la compression. En outre, les applications habituelles de la transmission vidéo assurent un flux d’une station centralisée, disposant d’une capacité calculatoire élevée, vers un certain nombre de récepteurs. La charge de compression est ainsi effectuée une seule fois par une station adaptée à ce fait. Avec l’accroissement de l’interactivité de la téléphonie mobile, les abonnés sont en mesure d’émettre des séquences vidéo autant que d’en recevoir. Le flux vidéo est alors généré par le téléphone mobile à capacité limitée vers une station de base à capacité élevée. La compression ne peut se faire selon le schéma conventionnel et la complexité de la compression doit être transférée au décodeur. Les résultats théoriques de Slepian-Wolf [2] et leur extension par les travaux de Wyner-Ziv [3] pour le cas de codage avec perte et en présence d’information latérale constituent les bases théoriques du codage de sources distribuées. Ces résultats théoriques ont donné naissance à un vaste champ d’applications comme le récent paradigme de codage vidéo distribué, établi il y a juste quelques années. Dans cette thèse de doctorat, on présente une étude des divers systèmes de codage vidéo distribué dans le domaine pixel et dans le domaine transformé. Le décodeur exploite la corrélation entre la séquence à transmettre par le codeur et l’information latérale dont il dispose. Cette corrélation se traduit par un canal virtuel dont l’entrée est la trame à transmettre et la sortie est l’information latérale. Un code turbo est utilisé pour générer des bits de parité envoyés progressivement sous la demande du décodeur, pour corriger les erreurs de l’information latérale qui constitue une version bruitée de la trame originale. Dans ce travail, on implémente différents algorithmes de codage vidéo distribué basés sur les turbocodes dans le but de s’approcher des performances de la compression vidéo conventionnelle.
Most of the video compression processing is usually performed at the transmitter in the conventional video coding standards (MPEG, H.263, H.264/AVC [1]). This choice is due to the fact that the transmitter has full knowledge of its source to ensure easy and efficient compression. In addition, the usual applications of video transmission ensure a flow from a centralized station, with a higher computational capacity, to a number of receivers. The compression task is thus performed only once by a computationally adapted station. However, with the emergence of wireless surveillance locally distributed cameras, the growth of cellular interactive video applications as well as many other applications involving several low cost video encoders at the expense of high complexity central decoder, the compression task can no longer be handled by the encoder and thus the compression complexity should be transferred to the decoder. Slepian and Wolf information theoretical result on lossless coding for correlated distributed sources [2] and its extension to the lossy source coding case with side information at the decoder, as introduced by Wyner and Ziv [3], constitute the theoretical basis of distributed source coding. These theoretical concepts have given birth to a wide field of applications as the recent distributed video coding paradigm, established a few years ago. In this doctoral thesis, we present a study of various distributed video coding schemes in the pixel and transform domains. The decoder exploits the correlation between the video sequence to be transmitted by the encoder and the side information. This correlation can be seen as a virtual channel whose input is the frame to be transmitted and the output is the side information. Turbo coding is used to generate the parity bits which are sent, gradually upon decoder requests, to correct the errors in the side information considered as a noisy version of the original frame. In this work, we implement various algorithms for distributed video coding based on turbo codes in order to approach the efficiency of conventional video encoders.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Gorin, Jérôme. "Machine virtuelle universelle pour codage vidéo reconfigurable". Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00997683.

Texto completo
Resumen
Cette thèse propose un nouveau paradigme de représentation d'applications pour les machines virtuelles, capable d'abstraire l'architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d'application qui abstrait les instructions des machines et sur un modèle d'exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S'ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d'exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d'abord développé une représentation " universelle " d'applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l'application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de " Représentation Canonique et Minimale " d'acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d'abstraction d'instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d'une " Machine Virtuelle Universelle " (MVU) dont la spécificité est de gérer les mécanismes d'adaptation, d'optimisation et d'ordonnancement à partir de l'infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L'une des applications de cette thèse est la modélisation par graphe flux de données d'un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d'utilisation dépasse le domaine vidéo pour s'appliquer à d'autres domaine de traitement du signal (3D, son, photo...)
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Gorin, Jérôme. "Machine virtuelle universelle pour codage vidéo reconfigurable". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0025.

Texto completo
Resumen
Cette thèse propose un nouveau paradigme de représentation d’applications pour les machines virtuelles, capable d’abstraire l’architecture des systèmes informatiques. Les machines virtuelles actuelles reposent sur un modèle unique de représentation d’application qui abstrait les instructions des machines et sur un modèle d’exécution qui traduit le fonctionnement de ces instructions vers les machines cibles. S’ils sont capables de rendre les applications portables sur une vaste gamme de systèmes, ces deux modèles ne permettent pas en revanche d’exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d’abord développé une représentation « universelle » d’applications pour machine virtuelle fondée sur la modélisation par graphe flux de données. Une application est ainsi modélisée par un graphe orienté dont les sommets sont des unités de calcul (les acteurs) et dont les arcs représentent le flux de données passant au travers de ces sommets. Chaque unité de calcul peut être traitée indépendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l’application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nécessite de modifier les règles de programmation. A cette fin, nous avons introduit et défini le concept de « Représentation Canonique et Minimale » d’acteur. Il se fonde à la fois sur le langage de programmation orienté acteur CAL et sur les modèles d’abstraction d’instructions des machines virtuelles existantes. Notre contribution majeure qui intègre les deux nouvelles représentations proposées, est le développement d’une « Machine Virtuelle Universelle » (MVU) dont la spécificité est de gérer les mécanismes d’adaptation, d’optimisation et d’ordonnancement à partir de l’infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est démontrée dans le contexte normatif du codage vidéo reconfigurable (RVC). En effet, MPEG RVC fournit des applications de référence de décodeurs conformes à la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de données. L’une des applications de cette thèse est la modélisation par graphe flux de données d’un décodeur conforme à la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de référence MPEG RVC. Les résultats expérimentaux montrent un gain en performance en exécution de deux pour des plates-formes dotées de deux cœurs par rapport à une exécution mono-cœur. Les optimisations développées aboutissent à un gain de 25% sur ces performances pour des temps de compilation diminués de moitié. Les travaux effectués démontrent le caractère opérationnel et universel de cette norme dont le cadre d’utilisation dépasse le domaine vidéo pour s’appliquer à d’autres domaine de traitement du signal (3D, son, photo…)
This thesis proposes a new paradigm that abstracts the architecture of computer systems for representing virtual machines’ applications. Current applications are based on abstraction of machine’s instructions and on an execution model that reflects operations of these instructions on the target machine. While these two models are efficient to make applications portable across a wide range of systems, they do not express concurrency between instructions. Expressing concurrency is yet essential to optimize processing of application as the number of processing units is increasing in computer systems. We first develop a “universal” representation of applications for virtual machines based on dataflow graph modeling. Thus, an application is modeled by a directed graph where vertices are computation units (the actors) and edges represent the flow of data between vertices. Each processing units can be treated apart independently on separate resources. Concurrency in the instructions is then made explicitly. Exploit this new description formalism of applications requires a change in programming rules. To that purpose, we introduce and define a “Minimal and Canonical Representation” of actors. It is both based on actor-oriented programming and on instructions ‘abstraction used in existing Virtual Machines. Our major contribution, which incorporates the two new representations proposed, is the development of a “Universal Virtual Machine” (UVM) for managing specific mechanisms of adaptation, optimization and scheduling based on the Low-Level Virtual Machine (LLVM) infrastructure. The relevance of the MVU is demonstrated on the MPEG Reconfigurable Video Coding standard. In fact, MPEG RVC provides decoder’s reference application compliant with the MPEG-4 part 2 Simple Profile in the form of dataflow graph. One application of this thesis is a new dataflow description of a decoder compliant with the MPEG-4 part 10 Constrained Baseline Profile, which is twice as complex as the reference MPEG RVC application. Experimental results show a gain in performance close to double on a two cores compare to a single core execution. Developed optimizations result in a gain on performance of 25% for compile times reduced by half. The work developed demonstrates the operational nature of this standard and offers a universal framework which exceeds the field of video domain (3D, sound, picture...)
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Crave, Olivier. "Approches théoriques en codage vidéo robuste multi-terminal". Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004774.

Texto completo
Resumen
Cette thèse propose des techniques de compression vidéo robuste dans un contexte de codage multi-terminal. Nous proposons des schémas de codage par descriptions multiples basés sur des filtres temporels dyadiques et 3-bandes appliqués sur des séquences sous-échantillonnées. Nous commençons par présenter plusieurs méthodes pour construire des descriptions corrélées à partir de ces bancs de filtres. Puis, pour augmenter leur robustesse et leur stabilité au cours du temps, nous proposons d'introduire un codec Wyner-Ziv au sein de ces schémas redondants : les trames qui en principe ne sont pas transmises dans une description sont ici codées en Wyner-Ziv. Pour réduire la redondance, nous proposons d'appliquer un filtrage temporel compensé en mouvement sur les trames codées en Wyner-Ziv pour ne transmettre que les sous-bandes de basses fréquences. Ensuite, nous proposons un schéma de codage par descriptions multiples avec information adjacente basé sur une quantification scalaire à descriptions multiples (MDSQ). Dans un premier temps, les indices générés par la MDSQ sont codés séparément par un codeur de Slepian-Wolf et décodés séparément à l'aide d'une information adjacente qui sert également à la reconstruction des coefficients. Dans un deuxième temps, un décodage croisé est proposé pour décoder conjointement les indices et ainsi profiter de la redondance entre les descriptions. Enfin, nous proposons d'améliorer la robustesse en codage vidéo distribué tout en conservant de bonnes performances débit-distorsion en structurant la séquence d'origine en groupes d'images, chacun contenant une trame clé et une trame codée en Wyner-Ziv. Pour chaque trame, deux descriptions sont générées par un quantificateur scalaire à descriptions multiples. Cette technique permet d'obtenir deux descriptions équilibrées contenant chacune une information partielle sur chaque trame dans la vidéo d'origine. Au décodeur central, le décodage itératif de deux descriptions avec information adjacente est utilisé. Nous étudions alors l'influence du décodage croisé et du taux de redondance sur les performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Rossignol, François. "Codage fractal basé-région de séquences vidéo segmentées". Mémoire, Université de Sherbrooke, 2003. http://savoirs.usherbrooke.ca/handle/11143/1241.

Texto completo
Resumen
Dans les industries de la télédiffusion et du multimédia, beaucoup de recherche se fait au niveau de la compression des données afin de réduire la largeur de bande nécessaire pour leur transmission en temps réel. Dans le domaine du codage de la vidéo, nous entendons souvent parler de MPEG (Motion Picture Expert Group), un standard international de la compression vidéo. Aujourd'hui, la norme MPEG-4 est de plus en plus utilisée sur l'Intemet grâce au taux de compression significatif qu'elle offre. Ce standard IEEE est continuellement en développement, renfermant des nouveaux outils qui rendent le codage de plus en plus rapide et efficace. Les standards récents de codage vidéo incorporent des méthodes d'estimation de mouvement et de quantification vectorielle permettant de compresser les séquences vidéo. Dans ce travail, nous étudions une méthode de quantification vectorielle de plus en plus utilisée dans le domaine du codage de la vidéo. Il s'agit du codage par fractales aussi connu sous le terme"Self-VQ". La recherche consiste en l'implémentation d'un algorithme de compression de séquences vidéo par la méthode des fractales. Nous présentons les algorithmes du CPM (Circular Prediction Mapping) et NCIM (Non Contractive Interframe Mapping) qui utilisent les fractales pour effectuer la tâche. De plus, une nouvelle méthode de codage par objet sera présentée. Le codage basé-région permet de coder séparément les régions ou objets dans une séquence afin d'offrir plus de flexibilité sur le contrôle de la largeur de bande de transmission. La qualité de codage est nettement améliorée près des frontières, c'est-à-dire les contours d'objets. Nous démontrons que le codage fractal basé-région est une méthode efficace qui pourra éventuellement faire partie des boîtes à outils du standard MPEG-4.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

André, Thomas. "Codage vidéo scalable et mesure de distorsion entropique". Nice, 2007. http://www.theses.fr/2007NICE4051.

Texto completo
Resumen
Les derniers standards de compression vidéo améliorent la qualité des vidéos compressées, et intègrent de nouvelles fonctions telles que la scalabilité. Celle-ci consiste à pouvoir extraire, à partir d'un seul flux vidéo compressé, plusieurs versions de cette vidéo, avec un débit, une fréquence, et une résolution variables. Cependant, la scalabilité s'accompagne souvent de pertes de performances. Nous présentons tout d'abord un codeur vidéo scalable par transformée en ondelettes compensée en mouvement. La transformée en ondelettes apporte une flexibilité accrue et un support natif de la scalabilité qui limite grandement la perte de performances. Nos principales contributions portent sur le filtrage temporel, l'estimation optimale des vecteurs mouvement, l'allocation de débit basée modèle et la scalabilité. Dans une seconde partie, nous introduisons une mesure de distorsion fondée sur l'entropie différentielle du signal conditionnée au signal quantifié. En effet, si l'erreur quadratique moyenne est en général utilisée comme critère de distorsion, elle tend à favoriser les coefficients de plus haute énergie. Ce choix est judicieux à fort débit, et correspond aux impressions visuelles ressenties ; cependant, il n'en est pas de même dans le cas général. Nous analysons les propriétés de la mesure de distorsion proposée et nous l'intégrons dans un algorithme de construction d'un quantificateur scalaire et vectoriel optimal. Nous proposons également un algorithme rapide d'allocation de débit fondé sur cette mesure de distorsion, qui permet d'améliorer grandement la qualité visuelle des images fortement compressées tout en préservant la compatibilité avec la norme JPEG2000
The current video compression standards MPEG4 and H. 264 improve the tradeoff between rate and quality of compressed videos. They also support new features such as scalability, which enables the user to decompress a single video bit-stream to different rates and spatiotemporal resolutions without any additional computation. However, scalability often results in a performance drop for given resolution and rate. In a first part, we propose a scalable motion- compensated wavelet-based video coder. Wavelet transforms bring more flexibility and offer a natural support to scalability, so that it can be implemented with very limited performance loss. Our main contributions are related to motion-compensated temporal filtering, optimal motion vectors estimation, model-based bit allocation, minimal-cost scalability and occlusion management. Moreover, the proposed decoder is entirely compatible with the still-image coding standard JPEG2000. In a second part, we introduce a distortion measure based on the conditional differential entropy of the input signal given its quantized value. Indeed, mean squared error has been widely used as a distortion criterion, but tends to favor high-energy coefficients. Although this behavior is relevant at high bit-rate, it does not always lead to a better visual quality in the general case. We investigate the intrinsic properties of the proposed distortion measure and we integrate it into optimal scalar and vectorial quantizers. We also propose a fast bit allocation algorithm based on this distortion measure, which leads to a great visual quality improvement of highly-compressed images while preserving JPEG2000 compatibility
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Vu, Thuong Van. "Application du codage réseau dans l'environnement sans fil : conditions de codage et contrôle de redondance adaptatif". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01022166.

Texto completo
Resumen
Depuis 2001, le codage réseau a devenu une technique de communication qui permet des meilleures performances réseaux. Au lieu de relayer les paquets séparément, le codage réseau permet aux noeuds réseaux de combiner plusieurs paquets natifs en un seul paquet codé. Le réseau peut réduire le nombre de transmissions, réduire le temps de transfert et augmenter le débit de transmission. Le codage réseau ne suit pas l'hypothèse dans laquelle l'information reste séparée et invariable dans chaque paquet de la source à la destination. Dans le codage réseau, les informations transportées dans les paquets ne doivent pas être endommagées mais elles peuvent être mixées et transformées. Dans le contexte de cette thèse, nous contribuons dans deux directions: l'augmentation de la capacité du réseau et la fiabilité de la transmission contre les erreurs aléatoires. Pour augmenter la capacité du réseau, nous avons défini des nouvelles conditions de codage dans le codage réseau inter-flux. Pour fournir la fiabilité de la transmission, nous avons proposé de nouveaux protocoles de codage réseau. Les résultats de simulations via NS-2 ont montré les améliorations importantes des performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Vu, Thuong Van. "Application du codage réseau dans l'environnement sans fil : conditions de codage et contrôle de redondance adaptatif". Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066062.

Texto completo
Resumen
Depuis 2001, le codage réseau a devenu une technique de communication qui permet des meilleures performances réseaux. Au lieu de relayer les paquets séparément, le codage réseau permet aux noeuds réseaux de combiner plusieurs paquets natifs en un seul paquet codé. Le réseau peut réduire le nombre de transmissions, réduire le temps de transfert et augmenter le débit de transmission. Le codage réseau ne suit pas l'hypothèse dans laquelle l'information reste séparée et invariable dans chaque paquet de la source à la destination. Dans le codage réseau, les informations transportées dans les paquets ne doivent pas être endommagées mais elles peuvent être mixées et transformées. Dans le contexte de cette thèse, nous contribuons dans deux directions: l'augmentation de la capacité du réseau et la fiabilité de la transmission contre les erreurs aléatoires. Pour augmenter la capacité du réseau, nous avons défini des nouvelles conditions de codage dans le codage réseau inter-flux. Pour fournir la fiabilité de la transmission, nous avons proposé de nouveaux protocoles de codage réseau. Les résultats de simulations via NS-2 ont montré les améliorations importantes des performances
Since its first introduction in 2001, network coding has gained a significant attention from the research communities in the need of improving the way of communication in computer networks. In short, network coding is a technique which allows the nodes to combine several native packets into one coded packet for transmission (i.e, coding packets) instead of simply forwarding packets one by one. With network coding, a network can save the number of transmissions to reduce data transfer time and increase throughput. This breaks the great assumption about keeping information separate and whole. Information must not be tampered but it can be mixed, and transformed. In the scope of the thesis, we focus on two main benefits of network coding: throughput improvement and transmission reliability against random losses. For the throughput improvement, we use inter-flow network coding and extend the coding conditions. For transmission reliability, we use intra-flow network coding and suggest new coding schemes. The obtained results via NS-2 simulations are quite promising
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Wang, Shan. "Stratégie de codage conjoint de séquences vidéo basé bandelettes". Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Wang-Shan/2008-Wang-Shan-These.pdf.

Texto completo
Resumen
Les travaux de cette thèse s'inscrivent à la fois dans le contexte de la compression d'images et dans celui des communications numériques. On sait que le traitement d'images couvre un grand nombre d'applications liées aux communications, telles que l'imagerie médicale et la télémédecine, la vidéoconférence, le cinéma, la télévision. Le système de transmission numérique permet de véhiculer l'information entre une source et un destinataire. Le support physique utilisé pour cette opération de transport n'étant pas toujours parfait, il est courant que, lors d'une transmission, l'information soit soumise à un certain nombre de perturbations, et qu'elle présente des erreurs en réception. En outre, d'autres erreurs peuvent être provoquées par le système de communication lui-même. Dans un souci de performance, beaucoup de systèmes de transmission d'images exploitent les défauts de la perception visuelle humaine. De plus, on exploite conjointement l’ensemble des éléments constituants la chaîne de transmission numérique pour rendre le schéma proposé robuste à la fois dans des conditions de transmission difficiles et pour des canaux bas débit. Pour cela, nous proposons d'utiliser la décomposition en ondelettes (DWT) dans le cadre de transmission sans fil de vidéos, ce qui diffère des standards actuels comme MPEG-4, H264, AVC, …. Qui utilisent prioritairement les DCT. Cela permet plus de souplesse dans la hiérarchisation possible de l'information à coder. En effet, la qualité de service attendue à la réception d'un système de communication peut-être très variable suivant l'application et le type de réseaux. En plus de la compression spatiale, l’exploitation des similarités existantes entre des images successives par des techniques de GOP (Group of Pictures) et de compensation du mouvement (Vecteur Mouvement) permet d’augmenter le taux de compression. Pour donner plus de robustesse au système de codage, nous considérons des quantifications vectorielles à partir de dictionnaires construits à l'aide de cartes auto-organisatrice (algorithme SOM), dictionnaires qui pourront se superposer aux constellations de modulations d'amplitude en quadrature (MAQ). Le codage à longueur fixe qui en découle pénalise le taux de compression, mais préserve mieux les données en cas d'erreurs sur le canal
The work of this thesis relies on image compression as well as digital communications. The image processing is applicable in a lot of communication-related fields like medical imaging, telemedicine, videoconference, cinema and TV. The digital transmission systems assure the information exchanges between a source and a receiver. Considering that the physical medium used to support such transmission is not yet perfect, it is well known that the information transmitted can be exposed to several types of interference, resulting errors at the receiver. Furthermore, the communication system itself can cause errors. For the sake of performance, many image transmission systems analyze the flaws of the human visual perception. In addition, we also take into account all the elements of the digital communication channel in order to have a robust scheme in difficult transmission conditions as well as in low bandwidth channel. To this end, we propose to use wavelet decomposition (DWT) in the context of wireless video transmission, which is different from actual standards using DCT in priority like MPEG-4,. 264, AVC, …. This guarantees more flexibility in the possible hierarchisation for the information to be coded. In fact, using different applications and network types in a communication system, the quality of service at the receiver can be very variable. In addition to spatial compression, the compression rate can also be increased using GOP (Group of Pictures) techniques and motion compensation (Motion Vectort) to exploit the similarities between successive images. In order to have a coding system more robust, we’ve used vector quantizations from codebooks built with self-organizing maps (SOM algorithm), these codebooks can be superimposed on constellations of quadrature amplitude modulation (QAM). The following fix length coding reduces the compression rate but preserves better the transmitted data facing channel errors
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Cammas, Nathalie. "Codage vidéo scalable par maillages et ondelettes t+2D". Rennes 1, 2004. https://hal.archives-ouvertes.fr/tel-01131881.

Texto completo
Resumen
Cette thèse s'incrit dans le cadre de la transmission de données vidéo sur réseaux. L'objectif de notre étude est d'étudier des technologies innovantes permettant d'offrir un codage vidéo hautement scalable et compétitif en terme de compression avec les standards de codage vidéo actuels non scalables. Pour cela, nous utilisons un schéma de codage vidéo basé sur une approche analyse-synthèse qui utilise une représentation du mouvement par maillages et un codage par ondelettes t+2D. La première partie de notre étude s'intéresse à l'exploitation du mouvement dans la transformée en ondelettes temporelles et à la définition des trajectoires de mouvement le long desquelles est appliquée la transformation temporelle. La deuxième partie de notre étude propose une amélioration de ce schéma en gérant le problème des occlusions engendrés par les discontinuités du mouvement.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Robert, Antoine. "Transformées orientées par blocs pour le codage vidéo hybride". Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003631.

Texto completo
Resumen
Cette thèse s'intéresse à améliorer les codeurs vidéo actuels tels que H.264 MPEG-4/AVC en utilisant avantageusement des informations structurelles contenues dans les images codées. Dans ce contexte, on observe que tous codeurs vidéo utilisent une étape de transformation permettant de décorréler mathématiquement les informations traitées afin d'en diminuer le coût de codage entropique. D'autre part, on remarque que toutes les images traitées qu'elles soient prédites ou non, possèdent des structures géométriques très marquées. Une étude des transformées existantes et possibles pour ces codeurs vidéo montre que peu d'entre elles (DCT, en ondelettes, à recouvrement, DCT sous forme lifting...) permettent de représenter efficacement ces structures géométriques des images. L'état de l'art de ces transformées exploitant les structures géométriques est porté historiquement par les ondelettes de seconde génération comme les contourlets, les bandelettes ou les directionlets. Mais, plusieurs études plus récentes utilisent des approches DCT, basées blocs, avec des orientations afin de mieux représenter ces structures géométriques. L'objectif de notre étude est d'améliorer le codage des images résiduelles H.264/AVC, issues de prédictions spatiales (Intra) ou temporelles (Inter), en utilisant leurs structures géométriques. Une première approche de ce travail de thèse nous a conduits à analyser et exploiter des méthodes connues de l'état de l'art. Pour cela, nous avons déni un schéma sous forme lifting réalisant les opérations de la DCT H.264/AVC. Ce schéma permet de voir cette DCT comme une transformée en ondelettes et donc de disposer d'une approche commune. On peut alors lui appliquer des outils de seconde génération an qu'elle représente au mieux les structures géométriques des images. Et, une version de transformée à recouvrement en pré- et post-traitements a été utilisée dans le codeur H.264/AVC. Une seconde approche de nos recherches a été de dénir une méthode d'orientation par pré- et post-traitements associée à un parcours adapté des coefficients quantifiés produits. Le pré-traitement de cette méthode d'orientation réalise des pseudo-rotations permettant de redresser les blocs des images vers l'horizontale ou la verticale. Cette opération est réalisée par cisaillements, soit par permutations circulaires des pixels, améliorant la décorrélation de la DCT qui suit sans présenter les défauts inhérents aux approches de l'état de l'art. Cette méthode, insérée dans un codeur H.264/AVC, présente de bonnes performances de codage. Cependant, le coût des informations d'orientation, sélectionnées selon un critère débit-distorsion, est élevé dégradant ces performances dans les bas débits, la méthode restant plus efficace que H.264/AVC dans les hauts débits (QP < 30). Les coefficients quantifiés issus de la méthode d'orientation précédente sont ensuite parcourus à la verticale, à l'horizontale ou en zigzag suivant les redressements appliqués ou le type de partitions. Cette adaptation de parcours permet de légèrement conserver du débit améliorant ainsi notre méthode globale qui devient plus efficaces que H.264/AVC dans les moyens débits (QP < 35).
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Robert, Antoine. "Transformées orientées par blocs pour le codage vidéo hybride". Phd thesis, Paris, ENST, 2008. https://pastel.hal.science/pastel-00003631.

Texto completo
Resumen
Cette thèse s'intéresse à améliorer les codeurs vidéo actuels en utilisant des informations structurelles des images. Les transformées classiques (DCT, ondelettes,. . . ) ne représentent pas efficacement les structures géométriques dont l'état de l'art est porté historiquement par les ondelettes de seconde génération. D’autres études sont basées DCT avec des orientations afin de représenter ces contours. L'objectif est d'améliorer le codage des images résiduelles H. 264/AVC (spatiales ou temporelles) en utilisant leurs structures géométriques. Pour cela, une méthode d'orientation par pré- et post-traitements associée à un parcours adapté des coefficients a été définie. Le pré-traitement réalise des pseudo-rotations permettant de redresser les blocs des images vers l'horizontale ou la verticale. Cette opération est réalisée par cisaillements, soit par permutations circulaires des pixels, améliorant la décorrélation de la DCT. Cette méthode insérée dans un codeur H. 264/AVC présente de bonnes performances de codage. Mais, le coût des orientations, sélectionnées selon un critère débit-distorsion, est élevé dégradant ces performances dans les bas débits, la méthode restant plus efficace que H. 264/AVC dans les hauts débits (QP<30). Les coefficients quantifiés sont ensuite parcourus à la verticale, l'horizontale ou en zigzag suivant les redressements. Cette adaptation de parcours permet de conserver du débit améliorant ainsi notre méthode globale qui devient plus efficace que H. 264/AVC dans les moyens débits (QP<35)
This thesis deals with improving state of the art video coders by using structural information of the images. Classical transforms (DCT, wavelets,…) do not effectively represent the geometrical structures whose state of the art is historically carried by second generation wavelets. Other studies are DCT-based with orientations in order to represent these contours. The aim is to improve the coding stage of residual H. 264/AVC images (spatial or temporal) by using their geometrical structures. For that, an oriented method by pre and post-processing associated with a course adapted with the coefficients has been defined. The pre-processing stage carries out pseudo-rotations straightening the blocks of the images towards horizontal or vertical axe. This operation is realized by shears that is to say by circular shifts of the pixels, improving the decorrelation of the DCT. This method inserted in a H. 264/AVC coder presents good coding performances. But, the coding cost of the orientations, selected by a rate-distortion criterion, is high deteriorating the performances in low bitrates, the method remains more efficient than H. 264/AVC in high bitrates (QP<30). The quantized coefficients are then scanned according to vertical, horizontal or zigzag patterns depending on the rectifications. This adaptive scan allows preserving rate thus improving our global method which becomes more efficient than H. 264/AVC in medium bitrates (QP<35)
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Dhollande, Nicolas. "Optimisation du codage HEVC par des moyens de pré-analyse et/ou pré-codage du contenu". Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S113.

Texto completo
Resumen
La compression vidéo HEVC standardisée en 2013 offre des gains de compression dépassant les 50% par rapport au standard de compression précédent MPEG4-AVC/H.264. Ces gains de compression se paient par une augmentation très importante de la complexité de codage. Si on ajoute à cela l’augmentation de complexité générée par l’accroissement de résolution et de fréquence image du signal vidéo d’entrée pour passer de la Haute Définition (HD) à l’Ultra Haute Définition (UHD), on comprend vite l’intérêt des techniques de réduction de complexité pour le développement de codeurs économiquement viables. En premier lieu, un effort particulier a été réalisé pour réduire la complexité des images Intra. Nous proposons une méthode d'inférence des modes de codage à partir d'un pré-codage d'une version réduite en HD de la vidéo UHD. Ensuite, nous proposons une méthode de partitionnement rapide basée sur la pré-analyse du contenu. La première méthode offre une réduction de complexité d'un facteur 3 et la deuxième, d'un facteur 6, contre une perte de compression proche de 5%. En second lieu, nous avons traité le codage des images Inter. En mettant en œuvre une solution d'inférence des modes de codage UHD à partir d'un pré-codage au format HD, la complexité de codage est réduite d’un facteur 3 en considérant les 2 flux produits et d’un facteur 9.2 sur le seul flux UHD, pour une perte en compression proche de 3%. Appliqué à une configuration de codage proche d'un système réellement déployé, l'apport de notre algorithme reste intéressant puisqu'il réduit la complexité de codage du flux UHD d’un facteur proche de 2 pour une perte de compression limitée à 4%. Les stratégies de réduction de complexité mises en œuvre au cours de cette thèse pour le codage Intra et Inter offrent des perspectives intéressantes pour le développement de codeurs HEVC UHD plus économes en ressources de calculs. Elles sont particulièrement adaptées au domaine de la WebTV/OTT qui prend une part croissante dans la diffusion de la vidéo et pour lequel le signal vidéo est codé à des résolutions multiples pour adresser des réseaux et des terminaux de capacités variées
The High Efficiency Video Coding (HEVC) standard was released in 2013 which reduced network bandwidth by a factor of 2 compared to the prior standard H.264/AVC. These gains are achieved by a very significant increase in the encoding complexity. Especially with the industrial demand to shift in format from High Definition (HD) to Ultra High Definition (UHD), one can understand the relevance of complexity reduction techniques to develop cost-effective encoders. In our first contribution, we attempted new strategies to reduce the encoding complexity of Intra-pictures. We proposed a method with inference rules on the coding modes from the modes obtained with pre-encoding of the UHD video down-sampled in HD. We, then, proposed a fast partitioning method based on a pre-analysis of the content. The first method reduced the complexity by a factor of 3x and the second one, by a factor of 6, with a loss of compression efficiency of 5%. As a second contribution, we adressed the Inter-pictures. By implementing inference rules in the UHD encoder, from a HD pre-encoding pass, the encoding complexity is reduced by a factor of 3x when both HD and UHD encodings are considered, and by 9.2x on just the UHD encoding, with a loss of compression efficiency of 3%. Combined with an encoding configuration imitating a real system, our approach reduces the complexity by a factor of close to 2x with 4% of loss. These strategies built during this thesis offer encouraging prospects for implementation of low complexity HEVC UHD encoders. They are fully adapted to the WebTV/OTT segment that is playing a growing part in the video delivery, in which the video signal is encoded with different resolution to reach heterogeneous devices and network capacities
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Moinard, Matthieu. "Codage vidéo hybride basé contenu par analyse/synthèse de données". Phd thesis, Telecom ParisTech, 2011. http://tel.archives-ouvertes.fr/tel-00830924.

Texto completo
Resumen
Les travaux de cette thèse sont destinés à la conception d'outils algorithmiques permettant d'accroître le facteur de compression des standards actuels de codage vidéo, tels que H.264/AVC. Pour cela, une étude préalable portant sur un ensemble de méthodes de restauration d'image a permis d'identifier et d'inspecter deux axes de recherche distincts. La première partie est fondée sur des méthodes d'analyse et de synthèse de texture. Ce type de procédé, aussi connu sous le nom de template matching, est couramment utilisé dans un contexte de codage vidéo pour prédire une portion de la texture de l'image suite à l'analyse de son voisinage. Nous avons cherché à améliorer le modèle de prédiction en prenant en compte les spécificités d'un codeur vidéo de type H.264/AVC. En particulier, la fonction débit/distorsion utilisée dans les schémas de codage vidéo normatifs se base sur une mesure objective de la qualité. Ce mécanisme est par nature incompatible avec le concept de synthèse de texture, dont l'efficacité est habituellement mesurée selon des critères purement perceptuels. Cette contradiction a motivé le travail de notre première contribution. La deuxième partie des travaux de cette thèse s'inspire des méthodes de régularisation d'image basée sur la minimisation de la variation totale. Des méthodes ont été élaborées originellement dans le but d'améliorer la qualité d'une image en fonction de la connaissance a priori des dégradations qu'elle a subies. Nous nous sommes basés sur ces travaux pour concevoir un modèle de prédiction des coefficients transformés obtenus à partir d'une image naturelle, qui a été intégré dans un schéma de codage vidéo conventionnel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Brouard, Olivier. "Pré-analyse de la vidéo pour un codage adapté. Application au codage de la TVHD en flux H.264". Phd thesis, Université de Nantes, 2010. http://tel.archives-ouvertes.fr/tel-00522618.

Texto completo
Resumen
Les méthodes d'optimisation d'un codeur vidéo classique ne traitent l'information à réduire que d'un point de vue signal et sont donc « bas niveau ». Bien que des travaux intégrant des propriétés du SVH soient proposés pour l'évaluation de la qualité, ou améliorer les techniques de codage, ces méthodes sont peu retenues au niveau des standards. Les travaux de recherche se portent davantage sur l'enrichissement des nouvelles normes, tel que le standard H.264. Cependant, les méthodes « haut niveau » obtiennent des performances encourageantes. Nous proposons donc une méthode de pré-analyse de la vidéo, qui intègre un modèle de l'attention visuelle. Le but est d'analyser la vidéo en tenant compte des informations haut niveau, pour transmettre au codeur le jeu de paramètres optimal afin d'exploiter au mieux les outils de codage. Les études réalisées pour modéliser l'attention visuelle ont mis en évidence le caractère primordial du contraste de mouvement. Notre méthode de pré-analyse détecte d'abord les objets en mouvement (par rapport à celui de la caméra), puis calcule les cartes de saillance permettant de déterminer les zones visuellement importantes. Nous proposons deux applications de codage (qui peuvent être utilisées conjointement) en fonction des informations obtenues après la pré-analyse, ainsi que l'évaluation de leurs performances. La première propose de modifier adaptativement la structure du GOP en fonction du contenu spatiotemporel de la vidéo. La deuxième concerne une application de compression de la vidéo avec une qualité visuelle différenciée guidée par les cartes de saillance. Les performances sont analysées à partir de tests d'évaluation subjective de la qualité.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Agostini, Marie Andrée. "Nouvelles approches pour la compression de vidéos haute définition : application au codage par descriptions multiples". Nice, 2009. http://www.theses.fr/2009NICE4017.

Texto completo
Resumen
La problématique principale de cette thèse est la compression de masses de données vidéo haute résolution. Nous proposons un schéma de compression vidéo par transformée en ondelettes compensée en mouvement. Plus précisément, dans le but de réduire le coût des vecteurs mouvement parfois trop éleve�� dans ce type de schéma, nous avons développé une approche de quantification avec pertes de ces vecteurs, permettant d'adapter leur précision tout en respectant le compromis débit / distorsion. Cette approche permet d'améliorer considérablement les performances du codeur, spécialement à bas débit. Pour modéliser l'influence de l'introduction de perte sur l'information de mouvement, nous avons établi un modèle théorique de distorsion de l'erreur de codage, et, enfin, nous avons réalisé une allocation de débit optimale basée modèle entre les vecteurs mouvement et les coefficients d'ondelettes. Cette méthode de quantification des vecteurs mouvement a par ailleurs été appliquée au codeur H. 264, la norme actuelle de compression vidéo pour la Haute Définition. Pour éviter certains artefacts dus à une mauvaise estimation du mouvement, nous avons ensuite amélioré le schéma lifting utilisé pour la transformée en ondelettes par une approche novatrice : les coefficients du schéma lifting sont adaptés à la norme des vecteurs mouvement. Enfin, nous avons travaillé sur le Codage par Descriptions Multiples, une approche de codage conjoint source / canal pour la compression robuste de vidéos utilisée dans la transmission sur des canaux de communication bruités. Nous avons développé un codeur vidéo robuste, par des approches de Codage par Descriptions Multiples dans le domaine transformé. Une allocation de débit est réalisée au codeur pour répartir le débit des coefficients d'ondelettes entre les différentes descriptions, en fonction des paramètres du canal. Plus particulièrement, pour reconstruire au mieux la vidéo en sortie du canal, nous avons réalisé des approches de décodage optimal, basées sur la connaissance des densités de probabilités des sous-bandes des différentes descriptions, sur un modèle de canal et sur des probabilités a posteriori. En parallèle, le codage de source vidéo distribué a également été exploré
The framework of the thesis is a wavelet-based video coder. Fully scalable, this video encoder is based on a lifted motion-compensated wavelet transform. The first challenge was to reduce the cost of the motion vectors, which can be prohibitive at low bit-rates, by quantizing with losses the vectors. This method has been applied to the H. 264 coder. The goal is to find the optimal bit-rates for the motion vectors and for the temporal wavelet coefficients in order to minimize the total distortion. A theoretical distortion model has thus been established, and an optimal bit-rate allocation has been realized. The influence of some badly estimated motion vectors on the motion-compensated wavelet transform has also been minimized. The steps of the lifting scheme have been closely adapted to the energy of the motion. To deal with the problems of efficient video transmission over noisy channels, Multiple Description Coding (MDC) has been explored. The framework is a balanced MDC scheme for scan-based wavelet transform video coding. A focus is done on the joint decoding of descriptions received at decoder and corrupted by noise. The challenge is to reconstruct a central signal with a distortion as small as possible using the knowledge of the probability density function of the descriptions, by two different algorithms. Distributed video coding has also been explored
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Laroche, Guillaume. "Modules de codage par compétition et suppression de l'information de compétition pour le codage de séquences vidéo". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005379.

Texto completo
Resumen
Cette thèse est dédiée à l'amélioration de la compression de séquences vidéo. Le but est de concevoir des méthodes suffisamment efficaces et réalistes pour être proposées aux organismes de normalisation de standard vidéo. Les approches choisies sont l'ajout de nouveaux modules de codage par compétition et la suppression de l'information de compétition. Un module de codage par compétition de prédicteurs de vecteurs mouvement, intégré dans le KTA, exploite, au sens du critère débit-distorsion, les redondances spatiales et temporelles des champs de vecteurs. De plus, une sélection automatique d'ensembles de prédicteurs orientée contenu est aussi proposée. Enfin, un nouveau mode de codage Intra basé sur un partitionnement 1D du macrobloc, réduisant la distance spatiale entre le signal de référence et la partition courante, est ajouté aux modes Intra bloc. Le standard de compression H.264/AVC, offre un nombre de compétitions plus élevé que celui de ses prédécesseurs. Pour réduire le débit lié à cette information de compétition, une partie de l'intelligence du codeur a été transférée au décodeur. Les indices des prédicteurs de vecteurs mouvement implicites, sont ainsi éliminés. Des prédicteurs Intra sont aussi supprimés en tenant compte du processus de quantification et du signal de référence. Enfin, en considérant que l'information de mouvement est une information de compétition, une estimation de mouvement au décodeur est mise en place. L'ensemble des méthodes développées offre des réductions de débit significatives par rapport à la référence. La combinaison d'une partie de ces méthodes obtient un gain moyen de 20% par rapport au standard pour un ensemble de séquences HD.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Le, Léannec Fabrice. "Codage vidéo robuste et hiérarchique pour la transmission sur réseaux hétérogènes". Rennes 1, 2001. http://www.theses.fr/2001REN1S018.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Cagnazzo, Marco. "CODAGE DES DONNÉES VISUELLES : EFFICACITÉ, ROBUSTESSE, TRANSMISSION". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00859677.

Texto completo
Resumen
Après l'obtention de mon doctorat (2005), mes travaux ont porté initialement sur deux des axes de recherche de la thèse, notamment sur le codage vidéo scalable et sur le codage d'images par ondelettes adaptées à la forme (OAF). J'ai en particulier étudié la mise en place d'un codeur vidéo scalable basé sur la transformée en ondelettes par schémas lifting compensés en mouvement et allocation optimale des ressources de codage. En suite j'ai abordé le problème du critère optimal pour l'estimation de mouvement pour ce type de codeur : des meilleures performances débit-distorsion peuvent être atteintes au prix d'une augmentation de la complexité de l'estimation de mouvement. Par rapport au codage d'images par OAF, j'ai travaillé sur les conditions qui permettent à cette approche d'être compétitif avec les méthodes traditionnelles, et ensuite sur l'utilisation conjointe de la transformée en OAF avec la quantification vectorielle arborescente et avec la transformée de Karhunen-Loéve par classes pour la compression d'images multi-spectrales. J'ai aussi considéré la relation entre distorsion sur les coefficients et distorsion perceptuelle ou non-perceptuelle sur l'image résultante. Ensuite j'ai travaillé sur l'amélioration d'un codeur vidéo standard par une représentation efficace du mouvement : un premier travail, visant une très bonne précision, a abouti à une nouvelle méthode de codage sans pertes basée sur l'information mutuelle ; une deuxième approche utilise la quantification des vecteurs de mouvement, permettant de réduire le débit pour la même qualité. J'ai ensuite travaillé sur le codage vidéo distribué (CVD). Dans le contexte du CVD, la corrélation entre deux images consécutives (ou entre deux vues voisines dans le cas de vidéo multi-vues) est exploité uniquement au décodeur, tandis que les deux images sont codées séparément. Il est alors fondamental que le décodeur soit capable de construire une bonne estimation de l'image manquante : dans ce cas le codeur devra envoyer seulement quelques bits de parité d'un code à correction d'erreurs pour améliorer l'estimation jusqu'à avoir une qualité acceptable. Dans ce cadre, mes travaux ont visé surtout à améliorer l'estimation de l'image manquante, par une description précise du mouvement : un premier axe est basé sur la représentation dense des champs de vecteurs de mouvement ; un deuxième sur la modélisation des trajectoires des objets ; les méthodes basées sur les hash, de raffinement successif et de fusion du mouvement global avec le mouvement local ont également donné des bons résultats. Ces techniques d'estimation peuvent être utilisées dans le cadre du codage par descriptions multiples : les images paires et impaires d'une séquence vidéo sont codées dans deux flux séparés avec un codeur standard, et le décodeur peut reproduire le taux original d'images par seconde même s'il reçoit un seul flux : les techniques de CVD permettent de reconstruire l'image manquante. Le CVD permet également de gérer efficacement le compromis entre degré d'interactivité, occupation d'espace de stockage et besoins de bande passante lors du streaming interactif de vidéos multi-vues. Le CVD de la vidéo 3D comporte des problématiques liées au codage des cartes de profondeur à la détection et la gestion des occlusions, et à la fusion des estimations temporelles et inter-vues. Finalement je me suis aussi occupé de la relation entre qualité de l'estimation de l'image manquante et le débit de codage total associé. Même en dehors du cadre du CVD, la compression vidéo 3D, ou plus précisément, de la vidéo multi-vues (VMV) et de la vidéo multi-vues avec profondeur (MVP) est également un domaine majeur de mon activité de recherche. Je me suis intéressé aux méthodes d'estimation dense de disparité, au codage de cartes de profondeur et au codage par Don't Care Regions (DCR) c'est à dire, en considérant les erreurs sur l'image synthétisé avec la carte de profondeur plutôt que la carte de profondeur elle-même. Le dernier domaine de recherche concerne la distribution de la vidéo sur réseau. Dans le cas de réseau filaire, j'ai travaillé sur une approche network-aware pour la distribution coopérative de vidéo. Dans le cas de réseau sans fils, je me suis intéressé à un protocole cross-layer qui minimise le nombre de message échangé, tout en garantissant à tous les nœuds la réception de la vidéo. Ce protocole a ensuite été amélioré pour prendre en compte les compromis entre distorsion et congestion sur le réseau. Ce protocole peut être utilisé conjointement au codage réseau pour maximiser le throughput du réseau et pour améliorer la robustesse de la communication. Les techniques de codage réseau peuvent également être utilisées avec le codage à descriptions multiples pour ultérieurement améliorer la robustesse, et avec le codage de la vidéo multi-vues pour optimiser (en sens débit-distorsion) la planification d'envoi des paquets vidéo.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Toto-Zarasoa, Velotiaray. "Codage de sources distribuées : Outils et Applications à la compression vidéo". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00592117.

Texto completo
Resumen
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Pau, Grégoire. "Ondelettes et décompositions spatio-temporelles avancées : application au codage vidéo scalable". Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002189.

Texto completo
Resumen
Les progrès récents sur les schémas de codage vidéo par ondelettes ont permis l'apparition d'une nouvelle génération de codeurs vidéos scalables t+2D dont l'efficacité est comparable à celle des meilleurs codecs hybrides. Ces schémas reposent sur l'utilisation d'une transformée en ondelettes appliquée le long du mouvement des images afin d'exploiter leur redondance temporelle, suivie d'une décomposition spatiale des sous-bandes résultantes et d'un codage entropique. L'objectif de cette thèse consiste en l'étude et la construction de nouvelles transformées scalables mises en jeu dans le schéma de codage vidéo t+2D, afin d'en améliorer l'efficacité de codage. L'utilisation du formalisme lifting lors de la construction de ces transformées spatio-temporelles permet l'introduction d'opérateurs non-linéaires, particulièrement utiles pour représenter efficacement les singularités et discontinuités présentes dans une séquence vidéo. Dans un premier temps, nous nous intéressons à l'optimisation et la construction de nouvelles transformées temporelles compensées en mouvement, afin d'améliorer leur performance de décorrelation. Nous étudions alors la construction de filtres M-bandes pour décomposer spatialement les sous-bande temporelles et nous montrons comment les propriétés de scalabilité des bancs de synthèse M-bandes peuvent être étendues à des facteurs rationnels quelconques. Enfin, nous décrivons comment mettre en oeuvre des décompositions spatiales en ondelettes adaptatives, non-linéaires et inversibles, sans nécessiter la transmission d'une carte de décisions.
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Balter, Raphaèle. "Construction d'un maillage 3D évolutif et scalable pour le codage vidéo". Rennes 1, 2005. ftp://ftp.irisa.fr/techreports/theses/2005/balter.pdf.

Texto completo
Resumen
Cette thèse s'inscrit dans le cadre du codage vidéo basé sur des modèles 3D. Notre étude se situe au croisement de deux axes de recherche particulièrement importants dans le domaine de la compression vidéo; le codage basé sur des modèles, permettant l'ajout de fonctionnalités à la vidéo, et la scalabilité, permettant d'adapter la représentation aux contraintes du réseau et des terminaux. Dans ce contexte nous avons proposé d'utiliser un modèle 3D, extrait automatiquement à partir d'images, à des fins de compression efficace pour des applications de réalité virtuelle à distance sur des terminaux hétérogènes. Pour cela nous avons mis au point un schéma original permettant d'encoder une vidéo par un modèle 3D évolutif hiérarchique, composé d'un flux de modèles 3D cohérents i. E. Basés sur la même connectivité couplée à une géométrie évoluant dans le temps, encodés par des ondelettes de seconde génération. The framework of this thesis is 3D model-based video coding. Our study is at the crossing of two particularly significant research axes in the field of video compression; model-based coding, adding functionalities to the video, and scalability, allowing to adapt the representation to various network and terminals constraints. In this context we proposed to use a 3D model automatically extracted from images for efficient compression for distant virtual reality applications on heterogeneous terminals. So an original scheme encoding a video with a hierarchical evolving 3D model, which is a consistent 3D model stream, i. E. Based on the same connectivity coupled to a geometry evolving in time encoded with second generation wavelets.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Toto-Zarasoa, Velotiaray. "Codage de sources distribués : outils et applications à la compression vidéo". Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00539044.

Texto completo
Resumen
Le codage de sources distribuées est une technique permettant de compresser plusieurs sources corrélées sans aucune coopération entre les encodeurs, et sans perte de débit si leur décodage s'effectue conjointement. Fort de ce principe, le codage de vidéo distribué exploite la corrélation entre les images successives d'une vidéo, en simplifiant au maximum l'encodeur et en laissant le décodeur exploiter la corrélation. Parmi les contributions de cette thèse, nous nous intéressons dans une première partie au codage asymétrique de sources binaires dont la distribution n'est pas uniforme, puis au codage des sources à états de Markov cachés. Nous montrons d'abord que, pour ces deux types de sources, exploiter la distribution au décodeur permet d'augmenter le taux de compression. En ce qui concerne le canal binaire symétrique modélisant la corrélation entre les sources, nous proposons un outil, basé sur l'algorithme EM, pour en estimer le paramètre. Nous montrons que cet outil permet d'obtenir une estimation rapide du paramètre, tout en assurant une précision proche de la borne de Cramer-Rao. Dans une deuxième partie, nous développons des outils permettant de décoder avec succès les sources précédemment étudiées. Pour cela, nous utilisons des codes Turbo et LDPC basés syndrome, ainsi que l'algorithme EM. Cette partie a été l'occasion de développer des nouveaux outils pour atteindre les bornes des codages asymétrique et non-asymétrique. Nous montrons aussi que, pour les sources non-uniformes, le rôle des sources corrélées n'est pas symétrique. Enfin, nous montrons que les modèles de sources proposés modélisent bien les distributions des plans de bits des vidéos; nous montrons des résultats prouvant l'efficacité des outils développés. Ces derniers permettent d'améliorer de façon notable la performance débit-distorsion d'un codeur vidéo distribué, mais sous certaines conditions d'additivité du canal de corrélation
Distributed source coding is a technique that allows to compress several correlated sources, without any cooperation between the encoders, and without rate loss provided that the decoding is joint. Motivated by this principle, distributed video codin has emerged, exploiting the correlation between the consecutive video frames, tremendously simplifying the encoder, and leaving the task of exploiting the correlation to the decoder. The first part of our contributions in this thesis presents the asymmetric coding of binary sources that are not uniform. We analyze the coding of non-uniform Bernoulli sources, and that of hidden Markov sources. For both sources, we first show that exploiting the distribution at the decoder clearly increases the decoding capabilities of a given channel code. For the binary symmetric channel modeling the correlation between the sources, we propose a tool to estimate its parameter, thanks to an EM algorithm. We show that this tool allows to obtain fast estimation of the parameter, while having a precision that is close to the Cramer-Rao lower bound. In the second part, we develop some tools that facilitate the coding of the previous sources. This is done by the use of syndrome-based Turbo and LDPC codes, and the EM algorithm. This part also presents new tools that we have developed to achieve the bounds of asymmetric and non-asymmetric distributed source coding. We also show that, when it comes to non-uniform sources, the roles of the correlated sources are not symmetric. Finally, we show that the proposed source models are well suited for the video bit planes distributions, and we present results that proof the efficiency of the developed tools. The latter tools improve the rate-distortion performance of the video codec in an interesting amount, provided that the correlation channel is additive
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Tizon, Nicolas. "Codage vidéo scalable pour le transport dans un réseau sans fil". Paris, ENST, 2009. http://www.theses.fr/2009ENST0032.

Texto completo
Resumen
Depuis quelques années, les données vidéo ont pris une place prépondérante en terme de trafic internet. Aussi, la multiplication des usages a fait émerger des besoins importants en termes d'adaptation du contenu en fonction du réseau ou du type de terminal utilisé. En ce qui concerne le codage source, le codage SVC (extension scalable de H. 264/AVC) constitue un outil très intéressant pour la mise en œuvre de solutions de transport optimisées dans des réseaux hétérogènes, soumis à de fortes contraintes au niveau des taux d'erreurs et particulièrement sensibles à la congestion. Du côté des réseaux, les solutions orientées IP sont devenues prédominantes et au niveau radio pour les réseaux sans fil, la tendance est de restreindre l'usage des canaux dédiés au profit d'une utilisation partagée de la ressource. Dans cette optique, les normes 3GPP prévoient la mise en oeuvre d'entités et de mécanismes de contrôle sensés apporter une QoS différenciée selon le type de service et permettant de gérer de façon rationnelle le partage de cette ressource. C'est dans une perspective d'optimisation du codage source et de la scalabilité de type SVC que s'inscrit une partie du travail réalisé dans cette thèse. Au niveau applicatif, un panel de débouchés peut être envisagé pour ce nouveau codec. En particulier, l'optimisation de la QoS a servi de cadre général aux travaux réalisés au cours de cette thèse. De façon plus précise, l'objectif initial et industriel de cette thèse était de mettre au point une solution de streaming vidéo tirant partie des possibilités du codage SVC pour optimiser l'utilisation de la ressource radio dans un réseaux téléphonique de type 3G
Bitrate adaptation is a key issue when considering streaming applications involving throughput limited networks with error prone channels, as wireless networks. The emergence of recent source coding standards like the scalable extension of H. 264/AVC namely Scalable Video Coding (SVC), that allows to encode in the same bitstream a wide range of spatio-temporal and quality layers, offers new adaptation facilities. The concept of scalability, when exploited for dynamic channel adaptation purposes, raises at least two kinds of issues: how to measure network conditions and how to differentiate transmitted data in terms of distortion contribution ? In this document, we propose and compare different approaches in terms of network architecture in order to comply with different practical requirements. The first approach consists in a video streaming system that uses SVC coding in order to adapt the input stream at the radio link layer as a function of the available bandwidth, thanks to a Media Aware Network Element (MANE) that assigns priority labels to video packets. The second approach consists in not modifying the existing network infrastructure and keeping the adaptation operations in the server that exploits long term feedbacks from the client. Moreover, in this document, we present a recursive distortion model, which is used to dynamically calculate the contribution of each packet to the final distortion. Finally, in the scope of lossy compression with subband decomposition and quantization, a contribution has been proposed in order to jointly resize decoded pictures and adapt the inverse transformation matrices following quantization noise and images content
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Guillotel, Philippe. "De l'optimisation globale à l'optimisation locale psycho-visuelle en codage vidéo". Rennes 1, 2012. http://www.theses.fr/2012REN1S009.

Texto completo
Resumen
Le codage est un maillon essentiel de la chaîne de production-distribution-rendu vidéo. Il détermine la qualité perçue par l'observateur et participe à l'appréciation globale de la qualité d'expérience (ou QoE). Un codeur vidéo est un système complexe qui met en œuvre de nombreux aspects et nécessite un savoir faire spécifique pour spécifier le bon algorithme de codage en fonction des contraintes applicatives. Ce travail parcourt les principaux points à considérer, propose des solutions innovantes et montre leurs efficacités. La première partie est une introduction au codage vidéo et aux formats d'images avec quelques rappels des principes généraux nécessaires à la compréhension de ce mémoire. Les notions d'échantillonnage spatial et temporel et les bases de la colorimétrie en vidéo sont rappelées, pour présenter ensuite le codage proprement dit. Les différents mécanismes utilisés sont présentés, ainsi que les principaux standards de codage pertinents au regard de ce travail. L'impact des différents formats vidéo sur le codage est aussi abordé pour démontrer que le format progressif présente de nombreux intérêts, mais n'est pas encore largement utilisé du fait de la compatibilité requise avec l'existant. Enfin l'importance de connaître le contexte applicatif est discutée, en particulier dans le cadre de codage adapté aux formats vidéo de très hautes qualités utilisés en production professionnelle. La deuxième partie est consacrée aux algorithmes globaux d'optimisation basés complexité-distorsion et débit-distorsion, où la distorsion est principalement la minimisation de la différence mathématique entre le signal décodé et l'original. Un premier chapitre aborde l'adéquation de l'algorithme avec la plate-forme de codage cible. Dans ce mémoire la cible sera un circuit intégré considéré aujourd'hui comme le plus performant de sa génération. Un focus particulier est effectué dans les autres chapitres sur les techniques, fondamentales en codage vidéo, d'adaptation du codage au signal, au canal et à l'utilisateur. La troisième partie aborde une voie de recherche qui semble gagner un certain intérêt dans le monde académique, celui du codage perceptuel local. Après l'introduction des notions de modélisation du système visuel humain, de métriques de distorsion et d'aspect subjectifs, différentes recherches sont présentées. Elles introduisent l'aspect d'adaptation locale du codage dans l'image basée sur la perception. Autrement dit comment chaque région d'une image peut-elle être codée pour subjectivement donner une meilleure impression. C'est une voie assez récente en codage mais elle ouvre de nouvelles perspectives non encore complètement explorées. Enfin des extensions ou des perspectives complémentaires aux travaux de ce mémoire sont proposées dans la conclusion
Video coding is an essential part of the production-delivery-rendering video chain. The efficiency of the coding scheme gives the quality perceived by the final user and contributes to the evaluation of the quality of experience (or QoE). A video encoder is a complex system with many different aspects requiring a specific know-how to specify the right algorithm for the considered application. This work deals with the main topics to be considered, proposes innovative solutions and discusses their respective performances. The first part is an introduction to the coding of video signals with some remainders on the general principles necessary to understand this thesis. Spatial sampling, temporal sampling and colorimetry theories are first discussed, and the encoding is introduced just after. The different tools and mechanisms are described, as well as the main existing standards relevant regarding this work. The video formats impact is discussed to demonstrate the interest of the progressive scanning format, even if it is not yet largely diploid because of the necessary backward compatibility. Finally, we demonstrate the importance of knowing the applicative context in a particular case, the professional video production where very high quality video is required. The second part is dedicated to the global optimisation issues based on both the complexity-distortion and rate-distortion functions, where the distortion is mainly the mathematical difference between the original and decoded signals. The first chapter introduces the adequacy between the algorithm and the considered platform. We discuss here a specific IC considered today as one of the most efficient IC of its generation. A particular focus is proposed in the other chapters regarding adaptive coding techniques for the signal, channel or user. The third part introduces a new research area recently attracting a lot of attention from the academic researchers, the local perceptual coding. After an introduction of the human visual system, distortion metrics and other subjective aspects, different research studies are presented. It is proposed to use local adaptation based on the human perception. In other words we propose to study how each picture area can be encoded to provide a better subjective quality. It is a recent research topic but it opens new perspectives not yet fully explored. Finally, extensions and perspectives are proposed in the conclusion to complete this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Fauquet, Jerôme. "Optimisation de la qualité vidéo MPEG-2 en transmission ADSL : étude d'un transcodage vidéo hiérarchique". Valenciennes, 2003. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/3496492e-f16f-4b55-ad64-f01c961e825e.

Texto completo
Resumen
Nous présentons une méthode originale d'optimisation de la qualité de distribution vidéo en transmission sur ligne téléphonique de type ADSL. Celle-ci s'appuie sur un schéma de compression MPEG-2 hiérarchique de type data partitioning avec adaptation du débit à la volée, qui permet de tenir compte des caractéristiques du canal de transmission. Ce schéma est décrit de manière détaillée, ainsi que la méthode de transmission bi-résolution avec transfert de puissance qui permet une protection inégale des flux de données haute et basse priorité. Nous présentons les résultats de simulation de transmission vidéo ADSL en mono- et bi-résolution, avec ou sans adaptation de débit. Les performances des différentes solutions sont évaluées à partir de différents critères : taux d'erreur binaire, erreur quadratique moyenne du signal vidéo avant et après transmission. En particulier, l'analyse des résultats met en évidence la supériorité de la solution proposée vis à vis d'une transmission classique
We present an original method to optimize the received video quality within the framework of digital video transmission over ADSL. This one is based on a hierarchical coding scheme, using the MPEG-2 data partitioning mode, with rate adaptation in the air, which allows to take into account the characteristics of the transmission channel. This scheme is described in great detail, as well as the method of bi-resolution transmission using power transfer, which allows an unequal protection of the high and low priority video data streams. Finally we present the simulation results of digital video mono- then bi-resolution transmission over ADSL, with or without rate adaptation. The performances of the various solutions described here are evaluated in terms of BER, as well as MSE of the compressed digital video sequence, before and after transmission. In particular, the analysis of the results shows the superiority of the proposed solution compared to classical transmission schemes
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Yaacoub, Charles. "Codage conjoint source-canal pour l'optimisation d'un système de codage distribué de sources vidéo transmises sur un lien sans fil". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005457.

Texto completo
Resumen
Dans cette thèse, nous réalisons en premier lieu une étude comparative qui montre les avantages des turbo-codes non-binaires par rapport aux binaires, dans les domaines du codage canal et de la compression des sources distribuées, et nous implémentons un système de codage distribué vidéo basé sur les turbo-codes quadri-binaires. Nous dérivons ensuite la limite théorique de compression dans le cas du codage source ainsi que dans le cas du codage conjoint source-canal. Cette limite est ensuite utilisée dans le cadre d'une technique d'optimisation inter-couches qui vise à éviter l'usage excessif du canal de retour. Notre système se base alors sur le niveau de mouvement des séquences vidéo et sur l'état du canal de transmission pour déterminer le débit de transmission nécessaire à chaque utilisateur. En se basant sur les résultats obtenus, nous proposons une technique de codage conjoint qui permet d'estimer le débit de transmission de chaque utilisateur ainsi que d'optimiser le choix du paramètre de quantification. Ainsi, nous obtenons un système de codage vidéo distribué avec quantification variable et allocation dynamique du débit. Nous étudions aussi l'influence du codage H.264 des trames clés sur les performances globales du système. Nous développons ensuite des algorithmes qui permettent de faire varier dynamiquement la taille du GOP en se basant sur les calculs entropiques pour déterminer le débit de compression ainsi que le type de codage de chaque trame, sans le besoin d'un canal de retour. Finalement, nous proposons une nouvelle technique qui vise à optimiser la génération de l'information adjacente au décodeur en utilisant des algorithmes génétiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Yaacoub, Charles. "Codage conjoint source-canal pour l'optimisation d'un système de codage distribué de sources vidéo transmises sur un lien sans fil". Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005457.

Texto completo
Resumen
Dans cette thèse, nous réalisons en premier lieu une étude comparative qui montre les avantages des turbo-codes non-binaires par rapport aux binaires, dans les domaines du codage canal et de la compression des sources distribuées, et nous implémentons un système de codage distribué vidéo basé sur les turbo-codes quadri-binaires. Nous dérivons ensuite la limite théorique de compression dans le cas du codage source ainsi que dans le cas du codage conjoint source-canal. Cette limite est ensuite utilisée dans le cadre d’une technique d’optimisation inter-couches qui vise à éviter l’usage excessif du canal de retour. Notre système se base alors sur le niveau de mouvement des séquences vidéo et sur l’état du canal de transmission pour déterminer le débit de transmission nécessaire à chaque utilisateur. En se basant sur les résultats obtenus, nous proposons une technique de codage conjoint qui permet d’estimer le débit de transmission de chaque utilisateur ainsi que d’optimiser le choix du paramètre de quantification. Ainsi, nous obtenons un système de codage vidéo distribué avec quantification variable et allocation dynamique du débit. Nous étudions aussi l’influence du codage H. 264 des trames clés sur les performances globales du système. Nous développons ensuite des algorithmes qui permettent de faire varier dynamiquement la taille du GOP en se basant sur les calculs entropiques pour déterminer le débit de compression ainsi que le type de codage de chaque trame, sans le besoin d’un canal de retour. Finalement, nous proposons une nouvelle technique qui vise à optimiser la génération de l’information adjacente au décodeur en utilisant des algorithmes génétiques
In this thesis, we first develop a comparative study between binary and non binary turbo-codes used for channel coding as well as for the compression of distributed sources, and we implement a distributed video coding system based on quadri-binary turbo-codes. We then derive the theoretical compression bounds for the case of source coding as well as for joint source-channel coding. These calculations are then used in a cross-layer approach that aims at reducing the excessive use of the feedback channel. Therefore, our system determines the transmission rate for each user taking into account the amount of motion in the captured video scene as well as the state of the transmission channel. We propose afterwards a coding technique that estimates the transmission rate for each user while optimizing the value of the quantization parameter. As a result, we obtain a distributed video coding system with adaptive quantization and dynamic rate allocation. The influence of H. 264 Intra-coding of key frames on the system's performance is also considered. Based on our theoretical study, we then develop novel algorithms that dynamically adapt the GOP size and determine the coding mode for each frame, without the need for a feedback channel. Finally, a frame fusion approach that aims at improving the side information is proposed, based on genetic algorithms
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Franche, Jean-François. "Optimisation d’algorithmes de codage vidéo sur des plateformes à plusieurs processeurs parallèles". Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/1130/1/FRANCHE_Jean%2DFran%C3%A7ois.pdf.

Texto completo
Resumen
H.264 est le standard de codage vidéo le plus récent et le plus puissant. Ce standard permet, par rapport à ses prédécesseurs, d’augmenter le taux de compression par un facteur d’au moins deux, mais au prix d’une complexité plus élevée. Pour réduire le temps d’encodage, plusieurs encodeurs H.264 utilisent une approche parallèle. Dans le cadre de ce travail de recherche, notre objectif premier est de concevoir une approche offrant une meilleure accélération que l’approche implémentée dans l’encodeur H.264 d’Intel livré en code d’exemple dans sa librairie IPP. Nous présentons notre approche d’encodage vidéo parallèle multi-trames et multi-tranches (MTMT) et ses modes d’estimation de mouvement qui offrent un compromis entre l’accélération et la perte de qualité visuelle. Le premier mode, le plus rapide, mais dégradant le plus la qualité, restreint la région de recherche de l'estimation de mouvement à l'intérieur des limites de la tranche courante. Le second mode, moins rapide, mais dégradant moins la qualité que le premier, élargit la région de recherche aux tranches voisines, quand les tranches de référence y correspondant ont été traitées. Le troisième mode, moins rapide que le second, mais dégradant moins la qualité, rend une tranche prête à l'encodage seulement quand les tranches de référence couvrant la région de recherche ont été traitées. Nos expériences montrent que le premier mode de notre approche offre une accélération moyenne environ 55 % plus élevée que celle obtenue par l’approche d’Intel. Nos expériences montrent aussi que nous obtenons une accélération comparable à celle obtenue par l’état de l’art sans l’inconvénient de forcer l’utilisation des trames B. De plus, notre approche s’implémente rapidement dans un encodeur H.264 qui, comme l’encodeur H.264 d’Intel, est basé sur une approche multi-tranches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Kubasov, Denis. "Codage de sources distribuées : nouveaux outils et application à la compression vidéo". Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/kubasov.pdf.

Texto completo
Resumen
Le codage vidéo distribué est le nouveau paradigme de compression vidéo permettant une allocation flexible de complexité entre le codeur et le décodeur. Dans cette thèse, nous proposons plusieurs outils afin d'améliorer les performances débit-distorsion des systèmes réels de codage. Nous commençons par une étude sur l'extraction de l'information adjacente (IA), en considérant dans un premier temps une méthode d'estimation de mouvement basée sur une représentation par maillages déformables. Ensuite, nous développons une approche hybride qui permet de combiner plusieurs IA pour un décodage plus performant. Nous proposons également d'améliorer la qualité de l'IA temporelle à l'aide de méthodes de débruitage d'images. Le chapitre suivant est consacré à la modélisation de la corrélation entre l'IA et l'image WZ. Dans un premier temps, nous proposons deux méthodes pour améliorer l'estimation des paramètres du modèle. Ensuite, une approche de contrôle de débit dite hybride est proposée, où l'estimation du débit est faite à la fois au codeur et au décodeur. Cette solution permet d'effectuer un contrôle assez fin, tout en diminuant le nombre de requêtes de bits supplémentaires et ainsi la complexité du décodeur. Deux approches sont également proposées pour exploiter la corrélation entre les images consécutives du côté du codeur. Les aspects du codage de source sont abordés dans le dernier chapitre. Dans un premier temps, nous proposons d'utiliser une transformée par ondelettes orientées comme alternative à la transformée DCT. Ensuite, nous étendons l'algorithme DPCM au cas du codage distribué, pour exploiter la mémoire présente dans la bande de basse fréquences de l'image transformée. Enfin, pour exploiter la redondance statistique dans les indices de quantification, nous proposons de les coder avec un code de Huffman au lieu d'un code à longueur fixe
Distributed video coding (DVC) is a new video coding paradigm allowing flexible encoder/decoder complexity balance. In this thesis we propose several practical solutions offering better rate-distortion performances than existing algorithms. We start by studying the problem of side information (SI) extraction in DVC. We consider alternative motion models for more efficient motion estimation at the decoder, and propose a hybrid method for using multiple SI hypotheses simultaneously. We also study the problem of spatial SI, and derive a measure of SI quality. Finally, we regard the SI improvement problem as a denoising problem, and try several denoising methods. To address the problem of correlation modeling in DVC, several algorithms are proposed. In particular, we propose a hybrid encoder/decoder rate control solution, reducing significantly the decoder complexity and providing a robust decoder bit error rate estimation technique. Quantisation table design for Wyner-Ziv frames from the rate-distortion point of view is also addressed. Finally, source coding aspects of DVC are studied. We propose to exploit the source statistics on three different levels: the whole image level (by using a more efficient decorrelating transform), the band level (by employing a distributed prediction algorithm), and the quantisation indices level, where the statistical redundancy is exploited using Huffman codes
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía