Academic literature on the topic 'Codage adaptatif de la vidéo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Codage adaptatif de la vidéo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Codage adaptatif de la vidéo"

1

Battail, Gérard. "Codage De Source Adaptatif Par I’Algorithme De Guazzo." Annales Des Télécommunications 45, no. 11-12 (November 1990): 677–93. http://dx.doi.org/10.1007/bf02995720.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Fraboulet, Cécile. "Utilisation du Video Modeling chez l’enfant avec trouble du développement intellectuel et/ou trouble du spectre de l’autisme." Contraste N° 57, no. 1 (March 20, 2023): 101–12. http://dx.doi.org/10.3917/cont.057.0101.

Full text
Abstract:
Le Video Modeling ( vm ) est une approche validée par l’evidence-based practice qui vise à enseigner des comportements à un sujet en lui permettant de visionner une vidéo d’une personne réalisant une démonstration du comportement cible. Cette méthode a montré son efficacité pour les personnes avec un trouble du spectre de l’autisme ( tsa ), notamment dans le domaine de la communication, du jeu et du comportement adaptatif. Les personnes présentant un trouble du développement intellectuel ( tdi ) peuvent également progresser grâce à ce type d’intervention.
APA, Harvard, Vancouver, ISO, and other styles
3

Boillat, Alain. "Les codes du western à l’ère du codage informatique : le jeu vidéo sur la piste du gunfighter cinématographique (Red Dead Redemption)." Décadrages, no. 39 (December 1, 2018): 62–92. http://dx.doi.org/10.4000/decadrages.1340.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gauthier, Geneviève, Simonne Couture, and Christina St-Onge. "Jugement évaluatif : confrontation d’un modèle conceptuel à des données empiriques." Pédagogie Médicale 19, no. 1 (February 2018): 15–25. http://dx.doi.org/10.1051/pmed/2019002.

Full text
Abstract:
Contexte : Le recours au jugement des évaluateurs est de plus en plus présent en contexte d’utilisation d’une approche de formation par compétences ; toutefois sa subjectivité a souvent été critiquée. Plus récemment, les perspectives variées des évaluateurs ont commencé à être traitées comme source d’information importante et les recherches sur le jugement évaluatif (rater cognition) se sont multipliées. Lors d’une synthèse d’études empiriques sur le sujet, Gauthier et al. ont proposé un modèle conceptuel englobant une série de résultats concourants. Objectif : Dans le cadre de cette étude à devis mixte concomitant imbriqué (quan/QUAL), nous confrontons ce modèle théorique à des données empiriques issues d’entrevues semi-dirigées d’évaluateurs hors pair. Cette analyse vise à valider le modèle théorique et déterminer son utilité pour mieux comprendre le jugement évaluatif. Méthodes : Les verbatim d’entrevues audio-enregistrées de 11 participants observant et jugeant la vidéo d’une résidente lors d’une consultation avec un patient standardisé ont été codés en utilisant le modèle théorique comme arbre de codage. Les données quantitatives portant sur l’occurrence et la co-occurrence de chaque code, en général et par individu, ont été extraites et analysées. Résultats : Les données corroborent que l’ensemble des neuf mécanismes du modèle conceptuel sont bien représentés dans le discours des évaluateurs. Toutefois, les résultats suggèrent que le modèle avec ses neuf mécanismes indépendants ne rend pas justice à la complexité des interactions entre certains mécanismes et qu’un des mécanismes, le concept personnel de compétence, semble soutenir une grande partie des autres mécanismes.
APA, Harvard, Vancouver, ISO, and other styles
5

Russell, Gillian E. H., Autumn C. Puttick, Damien T. Spilchen, Robert Williams, and James Sanders. "Applying Self-Coding to the Measurement of Self-Generated Video Gaming and Gambling Memory Associations." Journal of Gambling Issues 46 (February 18, 2021). http://dx.doi.org/10.4309/jgi.2021.46.3.

Full text
Abstract:
Recently the use of implicit memory associations has expanded in the addiction literature to include the assessment of video gaming and gambling. However, the issue with memory associations lies in the open-ended nature of the answers that must be coded, which is often labour-intensive, costly, and where the ambiguity cannot always be resolved. The present study evaluates participant self-coding of memory associations versus researcher coding in the assessment of memory associations for video gaming and gambling. A sample of 3,176 Canadian adults were asked to produce responses to ten ambiguous words and ten potential behavioural associations for engagement in video gaming or gambling. Participants were subsequently asked to classify what categories their responses belonged to, including video gaming and gambling. Consistent with the literature on alcohol and marijuana memory associations, self-coded scores for video gaming and gambling were significantly higher than scores coded by the researchers, had significantly higher correlations with self-reported behaviours, and significantly improved the prediction of video gaming and gambling behaviours.Résumé L’utilisation des associations de la mémoire implicite comprend depuis peu l’évaluation des jeux vidéo et des jeux de hasard dans le vocabulaire de la dépendance. Le problème des associations de la mémoire réside toutefois dans le caractère ouvert des réponses qui doivent être codées, ce qui est souvent à haute intensité de main-d’œuvre et coûteux. De plus, il est parfois impossible de résoudre l’ambiguïté. La présente étude évalue l’autocodage par les participants des associations de la mémoire par rapport au codage effectué par le chercheur dans le cadre des jeux vidéo et des jeux de hasard. On a demandé à un échantillon de 3 176 Canadiens d’âge adulte de répondre à dix mots ambigus et dix associations comportementales potentielles en rapport avec la participation à des jeux vidéo ou des jeux de hasard. On leur a ensuite demandé de classer leurs réponses dans différentes catégories, y compris les jeux vidéo et les jeux de hasard. Tout comme dans la documentation sur les associations de mémoire dans le domaine de l’alcool et de la marijuana, les pointages autocodés pour les jeux vidéo et les jeux de hasard étaient considérablement plus élevés que ceux codés par les chercheurs, faisaient l’objet d’une corrélation beaucoup plus élevée avec des comportements autodéclarés, et amélioraient considérablement la prédiction de comportements liés aux jeux vidéo et aux jeux de hasard.
APA, Harvard, Vancouver, ISO, and other styles
6

Côté, Frédérique, and Mireille Lalancette. "#Propage l'info, pas le virus : communication politique et réponses des influenceur.euses à l'appel du gouvernement Legault lors de la crise de la COVID-19 au Québec." Canadian Journal of Political Science, May 25, 2021, 1–20. http://dx.doi.org/10.1017/s0008423921000536.

Full text
Abstract:
Résumé En mars 2020, le premier ministre Legault a fait appel aux influenceur.euses et aux célébrités québécoises dans le cadre de la campagne #Propage l'info, pas le virus afin de sensibiliser les jeunes au respect des consignes sanitaires liées à la COVID-19. Cet article offre un éclairage inédit sur les différentes manières dont ces personnes renommées ont répondu à l'appel ainsi que sur les formes de leurs réponses à l'aide d'une analyse de contenu de leur vidéo partagée sur les réseaux sociaux. Le codage des vidéos s'est fait à partir d'une grille d'analyse qualitative de contenu, inspirée de celle de Fields (1988). Il ressort des analyses que différents moyens ont permis d'accentuer le sentiment de proximité entre la célébrité et son public, dans le but d'augmenter l'adhésion au message. L'utilisation du pronom « On », l'emploi de formules narratives et l'intimité qui se dégage des vidéos informatives vont en ce sens.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Codage adaptatif de la vidéo"

1

Herrou, Glenn. "Résolution Spatio-temporelle Adaptative pour un Codage à Faible Complexité des Formats Vidéo Émergents." Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0020.

Full text
Abstract:
La standardisation du dernier format vidéo en date, appelé Ultra-High Definition TV (UHDTV), vise à améliorer la qualité l’expérience des utilisateurs en introduisant de nouvelles technologies telles que la 4K ou le High Frame-Rate (HFR). Cependant, ces améliorations multiplient la quantité de données à traiter avant transmission du signal par un facteur 8. En plus de ce nouveau format, les fournisseurs de contenu doivent aussi encoder les vidéos dans des formats et à des débits différents du fait de la grande variété des systèmes et réseaux utilisés par les consommateurs. SHVC, l’extension scalable du dernier standard de compression video High Efficiency Video Coding (HEVC) est une solution prometteuse pour adresser ces problématiques. En revanche, son architecture, très demandeuse en termes de calculs, atteint ses limites lors de l’encodage des nouveaux formats vidéo immersifs tels que le standard UHDTV.L’objectif de cette thèse est donc d’étudier des approches de codage scalables et légères basées sur l’adaptation de la résolution spatio-temporelle des vidéos. La première partie de cette thèse propose deux algorithmes de pré-traitement, utilisant respectivement des approches polyphase et ondelette basées image, afin de permettre la scalabilité spatiale avec une faible augmentation de la complexité.Ensuite, dans un second lieu, le design d’une architecture scalable à deux couches, plus conventionnelle, est étudié. Celle-ci est composée d’un encodeur HEVC standard dans la couche de base pour assurer la compatibilité avec les systèmes existants. Pour la couche d’amélioration, un encodeur basse complexité, se basant sur l’adaptation locale de la résolution spatiale, est proposé. Enfin, la dernière partie de cette thèse se focalise sur l’adaptation de la résolution spatio-temporelle. Un algorithme faisant varier la fréquence image est d’abord proposé. Cet algorithme est capable de détecter localement et de façon dynamique la fréquence image la plus basse n’introduisant pas d’artefacts visibles liés au mouvement. Les algorithmes de fréquence image variable et de résolution spatiale adaptative sont ensuite combinés afin d’offrir un codage scalable à faible complexité des contenus 4KHFR
The definition of the latest Ultra-High Definition TV (UHDTV) standard aims to increase the user’s quality of experience by introducing new video signal features such as 4K and High Frame-Rate (HFR). However, these new features multiply by a factor 8 the amount of data to be processed before transmission to the end user.In addition to this new format, broadcasters and Over-The-Top (OTT) content providers have to encode videos in different formats and at different bitrates due to the wide variety of devices with heterogeneous video format and network capacities used by consumers.SHVC, the scalable extension of the latest video coding standard High Efficiency Video Coding (HEVC) is a promising solution to address these issues but its computationally demanding architecture reaches its limit with the encoding and decoding of the data-heavy newly introduced immersive video features of the UHDTV video format.The objective of this thesis is thus to investigate lightweight scalable encoding approaches based on the adaptation of the spatio-temporal resolution. The first part of this document proposes two pre-processing tools, respectively using polyphase and wavelet frame-based approaches, to achieve spatial scalability with a slight complexity overhead.Then, the second part of this thesis addresses the design of a more conventional dual-layer scalable architecture using an HEVC encoder in the Base Layer (BL) for backward compatibility and a proposed low-complexity encoder, based on the local adaptation of the spatial resolution, for the Enhancement Layer (EL).Finally, the last part of this thesis investigates spatiotemporal resolution adaptation. A variable frame-rate algorithm is first proposed as pre-processing. This solution has been designed to locally and dynamically detect the lowest frame-rate that does not introduce visible motion artifacts. The proposed variable frame-rate and adaptive spatial resolution algorithms are then combined to offer a lightweight scalable coding of 4K HFR video contents
APA, Harvard, Vancouver, ISO, and other styles
2

Trioux, Anthony. "Étude et optimisation d'un système de vidéotransmission conjoint source-canal basé "SoftCast." Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2019. http://www.theses.fr/2019UPHF0018.

Full text
Abstract:
Des nouveaux schémas de Codage Vidéo Linéaire (CVL) ont démontré ces dernières années un potentiel élevé pour la diffusion de contenus vidéo sur des canaux de transmission sans-fil sévères. SoftCast représente le pionnier des schémas CVL. Différent des standards de transmission vidéo actuels et particulièrement utile en situation de broadcast, SoftCast est un système de codage conjoint source-canal où les pixels sont traités par des opérations linéaires successives (transformée DCT, allocation de puissance, modulation quasi-analogique) et directement transmis sans quantification ni codage (entropique ou de canal). SoftCast permet ainsi d’offrir une qualité vidéo reçue directement proportionnelle à la qualité du canal de transmission, sans aucune information de retour et tout en évitant les mécanismes d’adaptation complexes des schémas classiques. Un premier objectif de ces travaux de thèse concerne l’étude des performances de bout en bout de SoftCast. Des modèles théoriques sont ainsi proposés prenant en compte les contraintes de bande passante de l’application, l’allocation de puissance, ainsi que le type de décodeur utilisé à la réception (LLSE, ZF). Une deuxième partie basée sur une campagne de tests subjectifs concerne une étude originale de la qualité vidéo et des artefacts spécifiques associés à SoftCast. Dans une troisième partie, des méthodes de prétraitement permettant d’accroître la qualité reçue sont proposées avec un gain moyen en PSNR de l’ordre de 3 dB. Finalement, un algorithme adaptatif modifiant la taille du groupe d’images (GoP) en fonction des caractéristiques du contenu vidéo transmis est proposé. Cette solution permet d’obtenir des gains supplémentaires en PSNR de l’ordre de 1 dB
Linear video coding (LVC) schemes have recently demonstrated a high potential for delivering video content over challenging wireless channels. SoftCast represents the pioneer of the LVC schemes. Different from current video transmission standards and particularly useful in broadcast situation, SoftCast is a joint source-channel coding system where pixels are processed by successive linear operations (DCT transform, power allocation, quasi-analog modulation) and directly transmitted without quantization or coding (entropic or channel). This allows to provide a received video quality directly proportional to the transmission channel quality, without any feedback information, while avoiding the complex adaptation mechanisms of conventional schemes. A first contribution of this thesis is the study of the end-to-end performances of SoftCast. Theoretical models are thus proposed taking into account the bandwidth constraints of the application, the power allocation, as well as the type of decoder used at the reception (LLSE, ZF). Based on a subjective test campaign, a second part concern an original study of the video quality and specific artifacts related to SoftCast. In a third part, preprocessing methods are proposed to increase the received quality in terms of PSNR scores with an average gain of 3 dB. Finally, an adaptive algorithm modifying the size of the group of pictures (GoP) according to the characteristics of the transmitted video content is proposed. This solution allows to obtain about 1 dB additional gains in terms of PSNR scores
APA, Harvard, Vancouver, ISO, and other styles
3

Elhamzi, Wajdi. "Définition et implantation matérielle d'un estimateur de mouvement configurable pour la compression vidéo adaptative." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-01016351.

Full text
Abstract:
L'objectif de cette thèse est la conception d'une plateforme de compression vidéo de nouvelle génération à haut degré d'adaptation vis-à-vis de l'environnement. Ce besoin d'adaptabilité a plusieurs origines. D'une part les systèmes actuels visent à s'adapter à la diversité et l'hétérogénéité des médias et des terminaux actuels. D'autre part, l'exploitation de l'information contenue dans une scène vidéo dépend de l'application visée et des besoins des utilisateurs. Ainsi, l'information peut être exploitée de manière complètement inhomogène spatialement ou temporellement. En effet, l'exploitation spatiale de la scène peut être irrégulière par définition, par la définition automatique ou manuelle de zones d'intérêts dans l'image. La qualité de la vidéo, donc de la compression, doit pouvoir s'adapter afin de limiter la quantité de donnée à transmettre. Cette qualité est donc dépendante de l'évolution de la scène vidéo elle-même. Une architecture matérielle configurable a été proposée dans cette thèse permettant de supporter différents algorithmes de recherche en offrant une précision subpixélique.La synthèse des travaux menés dans ce domaine et la comparaison objective des résultats obtenus par rapport à l'état de l'art. L'architecture proposée est synthétisée à base d'un FPGA Virtex 6 FPGA, les résultats obtenus pourraient traiter l'estimation du mouvement pixélique avec un flux vidéo haute définition (HD 1080), respectivement à 13 images par seconde en utilisant la stratégie de recherche exhaustive (108K Macroblocs/s) et jusqu'à 223 images par seconde avec la recherche selon un grille en diamant (1,8 M Macroblocs /s). En outre le raffinement subpixélique en quart-pel est réalisé à Macroblocs 232k/ s
APA, Harvard, Vancouver, ISO, and other styles
4

de, Cuetos Philippe. "Streaming de Vidéos Encodées en Couches sur Internet avec Adaptation au Réseau et au Contenu." Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00000489.

Full text
Abstract:
Dans cette thèse nous proposons de nouvelles techniques et de nouveaux algorithmes pour améliorer la qualité des applications de streaming vidéo sur Internet. Nous formulons des problèmes d'optimisation et obtenons des politiques de contrôle pour la transmission sur le réseau Internet actuel sans qualité de service. Cette thèse étudie des techniques qui adaptent la transmission à la fois aux conditions variables du réseau (adaptation au réseau) et aux caractéristiques des vidéos transmises (adaptation au contenu). Ces techniques sont associées au codage en couche de la vidéo et au stockage temporaire de la vidéo au client. Nous évaluons leurs performances à partir de simulations avec des traces réseau (connexions TCP) et à partir de vidéos encodées en MPEG-4 FGS. Nous considérons tout d'abord des vidéos stockées sur un serveur et transmises sur une connexion TCP-compatible sans perte. Nous comparons les mécanismes d'ajout/retranchement de couches et de changement de versions; nous montrons que la flexibilité du codage en couches ne peut pas compenser, en général, le surcoût en bande passante par rapport au codage vidéo conventionnel. Deuxièmement, nous nous concentrons sur une nouvelle technique de codage en couches, la scalabilité à granularité fine (dite FGS), qui a été conçue spécifiquement pour le streaming vidéo. Nous proposons un nouveau cadre d'étude pour le streaming de vidéos FGS et nous résolvons un problème d'optimisation pour un critère qui implique la qualité des images et les variations de qualité durant l'affichage. Notre problème d'optimisation suggère une heuristique en temps réel dont les performances sont évaluées sur des protocoles TCP-compatibles différents. Nous montrons que la transmission sur une connexion TCP-compatible très variable, telle que TCP, résulte en une qualité comparable à une transmission sur des connexions TCP-compatibles moins variables. Nous présentons l'implémentation de notre heuristique d'adaptation dans un système de streaming de vidéos MPEG-4. Troisièmement, nous considérons le cadre d'étude général du streaming optimisé suivant les caractéristiques débit-distorsion de la vidéo. Nous analysons des traces débit-distorsion de vidéos de longue durée encodées en MPEG-4 FGS, et nous observons que le contenu sémantique a un impact important sur les propriétés des vidéos encodées. A partir de nos traces, nous examinons le streaming optimal à différents niveaux d'agrégation (images, groupes d'images, scènes); nous préconisons l'adaptation optimale scène par scène, qui donne une bonne qualité pour une faible complexité de calcul. Finalement, nous proposons un cadre d'optimisation unifié pour la transmission de vidéos encodées en couches sur des canaux à pertes. Le cadre d'étude proposé combine l'ordonnancement, la protection contre les erreurs par les FEC et la dissimulation d'erreur au décodeur. Nous utilisons des résultats sur les Processus de Décision de Markov (MDPs) à horizon infini et gain moyen, pour trouver des politiques de transmission optimales avec une faible complexité et pour un large éventail de mesures de qualité. Nous montrons qu'il est crucial de considérer la dissimulation d'erreur au décodeur dans la procédure d'optimisation de l'ordonnancement et de la protection contre les erreurs afin d'obtenir une transmission optimale.
APA, Harvard, Vancouver, ISO, and other styles
5

Aklouf, Mourad. "Video for events : Compression and transport of the next generation video codec." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG029.

Full text
Abstract:
L'acquisition et la diffusion de contenus avec une latence minimale sont devenus essentiel dans plusieurs domaines d'activités tels que la diffusion d'évènements sportifs, la vidéoconférence, la télé-présence, la télé-opération de véhicules ou le contrôle à distance de systèmes. L'industrie de la diffusion en direct a connu une croissance en 2020, et son importance va encore croitre au cours des prochaines années grâce à l'émergence de nouveaux codecs vidéo à haute efficacité reposant sur le standard Versatile Video Coding(VVC)et à la cinquième génération de réseaux mobiles (5G).Les méthodes de streaming de type HTTP Adaptive Streaming (HAS) telles que MPEG-DASH, grâce aux algorithmes d'adaptation du débit de transmission de vidéo compressée, se sont révélées très efficaces pour améliorer la qualité d'expérience (QoE) dans un contexte de vidéo à la demande (VOD).Cependant, dans les applications où la latence est critique, minimiser le délai entre l'acquisition de l'image et son affichage au récepteur est essentiel. La plupart des algorithmes d'adaptation de débit sont développés pour optimiser la transmission vidéo d'un serveur situé dans le cœur de réseau vers des clients mobiles. Dans les applications nécessitant un streaming à faible latence, le rôle du serveur est joué par un terminal mobile qui va acquérir, compresser et transmettre les images via une liaison montante comportant un canal radio vers un ou plusieurs clients. Les approches d'adaptation de débit pilotées par le client sont par conséquent inadaptées. De plus, les HAS, pour lesquelles la prise de décision se fait avec une périodicité de l'ordre de la seconde ne sont pas suffisamment réactives lors d'une mobilité importante du serveur et peuvent engendrer des délais importants. Il est donc essentiel d'utiliser une granularité d'adaptation très fine afin de réduire le délai de bout-en-bout. En effet, la taille réduite des tampons d'émission et de réception afin de minimiser la latence rend plus délicate l'adaptation du débit dans notre cas d'usage. Lorsque la bande passante varie avec une constante de temps plus petite que la période avec laquelle la régulation est faite, les mauvaises décisions de débit de transmission peuvent induire un surcroit de latence important.L'objet de cette thèse est d'apporter des éléments de réponse à la problématique de la transmission vidéo à faible latence depuis des terminaux (émetteurs) mobiles. Nous présentons d'abord un algorithme d'adaptation de débit image-par-image pour la diffusion à faible latence. Une approche de type Model Predictive Control (MPC) est proposée pour déterminer le débit de codage de chaque image à transmettre. Cette approche utilise des informations relatives au niveau de tampon de l'émetteur et aux caractéristiques du canal de transmission. Les images étant codées en direct, un modèle reliant le paramètre de quantification (QP) au débit de sortie du codeur vidéo est nécessaire. Nous avons donc proposé un nouveau modèle reliant le débit au paramètre de quantification et à la distorsion de l'image précédente. Ce modèle fournit de bien meilleurs résultats dans le contexte d'une décision prise image par image du débit de codage que les modèle de référence de la littérature.En complément des techniques précédentes, nous avons également proposé des outils permettant de réduire la complexité de codeurs vidéo tels que VVC. La version actuelle du codeur VVC (VTM10) a un temps d'exécution neuf fois supérieur à celui du codeur HEVC. Par conséquent, le codeur VVC n'est pas adapté aux applications de codage et diffusion en temps réel sur les plateformes actuellement disponibles. Dans ce contexte, nous présentons une méthode systématique, de type branch-and-prune, permettant d'identifier un ensemble d'outils de codage pouvant être désactivés tout en satisfaisant une contrainte sur l'efficacité de codage. Ce travail contribue à la réalisation d'un codeur VVC temps réel
The acquisition and delivery of video content with minimal latency has become essential in several business areas such as sports broadcasting, video conferencing, telepresence, remote vehicle operation, or remote system control. The live streaming industry has grown in 2020 and it will expand further in the next few years with the emergence of new high-efficiency video codecs based on the Versatile Video Coding (VVC) standard and the fifth generation of mobile networks (5G).HTTP Adaptive Streaming (HAS) methods such as MPEG-DASH, using algorithms to adapt the transmission rate of compressed video, have proven to be very effective in improving the quality of experience (QoE) in a video-on-demand (VOD) context.Nevertheless, minimizing the delay between image acquisition and display at the receiver is essential in applications where latency is critical. Most rate adaptation algorithms are developed to optimize video transmission from a server situated in the core network to mobile clients. In applications requiring low-latency streaming, such as remote control of drones or broadcasting of sports events, the role of the server is played by a mobile terminal. The latter will acquire, compress, and transmit the video and transmit the compressed stream via a radio access channel to one or more clients. Therefore, client-driven rate adaptation approaches are unsuitable in this context because of the variability of the channel characteristics. In addition, HAS, for which the decision-making is done with a periodicity of the order of a second, are not sufficiently reactive when the server is moving, which may generate significant delays. It is therefore important to use a very fine adaptation granularity in order to reduce the end-to-end delay. The reduced size of the transmission and reception buffers (to minimize latency) makes it more difficult to adapt the throughput in our use case. When the bandwidth varies with a time constant smaller than the period with which the regulation is made, bad transmission rate decisions can induce a significant latency overhead.The aim of this thesis is to provide some answers to the problem of low-latency delivery of video acquired, compressed, and transmitted by mobile terminals. We first present a frame-by-frame rate adaptation algorithm for low latency broadcasting. A Model Predictive Control (MPC) approach is proposed to determine the coding rate of each frame to be transmitted. This approach uses information about the buffer level of the transmitter and about the characteristics of the transmission channel. Since the frames are coded live, a model relating the quantization parameter (QP) to the output rate of the video encoder is required. Hence, we have proposed a new model linking the rate to the QP of the current frame and to the distortion of the previous frame. This model provides much better results in the context of a frame-by-frame decision on the coding rate than the reference models in the literature.In addition to the above techniques, we have also proposed tools to reduce the complexity of video encoders such as VVC. The current version of the VVC encoder (VTM10) has an execution time nine times higher than that of the HEVC encoder. Therefore, the VVC encoder is not suitable for real-time encoding and streaming applications on currently available platforms. In this context, we present a systematic branch-and-prune method to identify a set of coding tools that can be disabled while satisfying a constraint on coding efficiency. This work contributes to the realization of a real-time VVC coder
APA, Harvard, Vancouver, ISO, and other styles
6

Abdallah, Alaeddine. "Mécanismes Cross-Layer pour le streaming vidéo dans les réseaux WIMAX." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14142/document.

Full text
Abstract:
Poussé par la demande croissante de services multimédia dans les réseaux Internet à haut débit, la technologie WIMAX a émergé comme une alternative compétitive à la solution filaire d’accès à haut débit. L’IEEE 802.16 constitue une solution qui offre des débits élevés en assurant une qualité de service (QoS) satisfaisante. En particulier, elle est adaptée aux applications multimédia qui ont des contraintes de QoS à satisfaire. Cependant, avec la présence d’utilisateurs hétérogènes qui ont des caractéristiques diverses en termes de bande passante, de conditions radio et de ressources disponibles, de nouveaux défis posés doivent être résolus. En effet, les applications multimédia doivent interagir avec leur environnement pour informer le réseau d’accès de leurs besoins en QoS et s’adapter dynamiquement aux variations des conditions du réseau.Dans ce contexte, nous proposons deux solutions pour la transmission des flux vidéo sur les réseaux 802.16 sur la base de l’approche Cross-layer. Nous nous intéressons à la fois à la transmission unicast et multicast sur le lien montant et descendant d’une ou plusieurs cellules WIMAX.Premièrement, nous proposons une architecture Cross-Layer qui permet l’adaptation et l’optimisation du streaming vidéo en fonction des ressources disponibles. Nous avons défini une entité CLO (Cross-Layer Optimizer) qui exploite des messages de gestion des flux de service, échangés entre BS et SS, au niveau MAC, pour déterminer l’adaptation nécessaire et optimale afin d’assurer le bon fonctionnement de l’application. Les adaptations se produisent en deux temps, lors de l'admission du flux et au cours de la session de streaming. L’analyse des performances, par simulations, de notre solution montre l’efficacité du CLO à adapter, d’une façon dynamique, le débit vidéo en fonction des conditions du réseau afin d’assurer une QoS optimale.Deuxièmement, nous proposons une solution de streaming multicast des flux vidéo dans les réseaux WIMAX. Cette solution permet de trouver un compromis entre la diversité des clients, en termes de conditions radio, de schémas de modulation et de ressources disponibles, ainsi que le format de codage vidéo hiérarchique SVC, pour offrir la meilleure qualité vidéo y compris pour les clients ayant de faibles conditions radio. En effet, cette solution permet à chaque utilisateur d’obtenir une qualité vidéo proportionnellement à ses conditions radio et à sa bande passante disponible. Pour atteindre cet objectif, plusieurs groupes multicast sont formés par couches vidéo SVC. Cette solution permet d’optimiser davantage les ressources radio et ainsi d’augmenter la capacité globale du système
Driven by the increasing demand for multimedia services in broadband Internet networks, WIMAX technology has emerged as a competitive alternative to the wired broadband access solutions. The IEEE 802.16 is a solution that provides high throughput by ensuring a satisfactory QoS. In particular, it is suitable for multimedia applications that have strict QoS constraints. However, the users’ heterogeneity and diversity in terms of bandwidth, radio conditions and available resources, pose new deployment challenges. Indeed, multimedia applications need to interact with their environment to inform the access network about their QoS requirements and dynamically adapt to changing network conditions.In this context, we propose two solutions for video streaming over 802.16 networks based on Cross-Layer approach. We are interested in both unicast and multicast transmissions in uplink and downlink of one or more WIMAX cells.First, we proposed an architecture that enables Cross-Layer adaptation and optimization of video streaming based on available resources. We defined the entity CLO (Cross-Layer Optimizer) that takes benefits from service flow management messages, exchanged between BS and SS, at the MAC level, to determine the necessary adaptations / adjustment to ensure optimal delivery of the application. Adaptations occur at two epochs, during the admission of the video stream and during the streaming phase. The performance analysis, performed through simulations, shows the effectiveness of the CLO to adapt in a dynamic way, the video data rate depending on network conditions, and thus guarantee an optimal QoS.Second, we proposed a solution that enables IP multicast video delivery in WIMAX network. This solution allows finding the compromise between the diversity of end-user requirements, in terms of radio conditions, modulation schemes and available resources, along with the SVC hierarchy video format, to offer the best video quality even for users with low radio conditions. Indeed, we define a multicast architecture that allows each user to get a video quality proportionally to its radio conditions and its available bandwidth. Towards this end, several IP multicast groups are created depending on the SVC video layers. Subsequently, our solution allows optimizing the use of radio resources by exploiting the different modulations that can be selected by the end-users
APA, Harvard, Vancouver, ISO, and other styles
7

Bacquet, Anne-Sophie. "Transmission optimisée de flux vidéo haute définition H. 264/AVC et SVC sur ADSL2 : adaptation conjointe des paramètres de codage source et de transmission." Valenciennes, 2010. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/eae7153a-baf5-4519-95e2-77387529496c.

Full text
Abstract:
L’éligibilité d’un client ADSL à un service vidéo dépend principalement de la longueur de sa ligne. Au delà d’une certaine distance, la transmission d’une vidéo au débit requis avec un niveau de qualité de service donné est impossible. Dans ces travaux nous avons proposé différentes solutions pour étendre la zone d’éligibilité aux services vidéo, et plus particulièrement les services haute définition. Elles s’appuient sur des techniques de réduction du débit du flux vidéo H. 264, dont les paramètres sont optimisés en termes de qualité reçue, conjointement avec les paramètres de transmission ADSL2. La première solution concerne un flux vidéo Haute Définition non scalable dont le débit est réduit grâce au transcodeur proposé. Le flux vidéo adapté est ensuite uniformément protégé et transmis sur ADSL2 selon les paramètres calculés lors de l’optimisation. Avec cette solution, l’éligibilité à été étendue de 1,2 Km en moyenne sur les lignes testées, avec une qualité visuelle résultante tout à fait acceptable. Les deux autres solutions concernent un flux vidéo scalable compressé avec l’extension scalable de H. 264/AVC. La première est basée sur une approche de réduction de débit hybride (scalabilité puis transcodage). Cette solution a permis d’améliorer la qualité des vidéos reçues avec des valeurs de PSNR jusqu’à 3dB supérieures. Ces premiers résultats avec SVC, nous ont conduits à évaluer les performances de ce codeur scalable pour des résolutions spatiales variables (CIF à Full-HD). Il est apparu que les performances de ce codec sont plus faibles pour les vidéos de résolutions inférieures. La dernière solution proposée pour l’extension d’éligibilité avec un flux vidéo scalable a donc été réalisée pour des vidéos de résolution CIF. Il s’agit d’une approche bi-résolution, où le flux vidéo scalable est scindé en deux parties d’importances variables, inégalement protégées. Cette proposition a permis d’améliorer les performances obtenues en comparaison avec une approche de protection égale jusqu'à 0. 5 dB
The eligibility of any ADSL subscriber to video services strongly depends on the length of his line. Beyond a given distance, video transmission is no more possible at the desired bit rate with a targeted quality of service level. In this work, we propose different solutions to extend the area of eligibility for high-definition video services. These solutions rely on bit rate adaptation techniques of the H. 264 compressed video streams, whose parameters are jointly optimized together with the ADSL2 transmission parameters in terms of received quality. In a first solution, we consider that the input high definition compressed video streams are non scalable: in this case, bit rate reduction is performed by means of appropriate transrating. The adapted video stream is then equally protected and transmitted according to optimal ADSL2 parameters. Thanks to this solution, eligibility was extended by 1. 2 km on average over the tested lines, with resultant satisfying visual quality. Two other solutions are then proposed when the input video stream is compressed thanks to the scalable extension of H. 264 named SVC. First, we propose a hybrid solution for bit rate adaptation, which relies on scalability then transrating. This solution improves the quality of received videos up to +3 dB in terms of PSNR values. Preliminary results obtained with the scalable extension of H. 264/AVC lead us to evaluate SVC performances for varying spatial resolutions (CIF to Full-HD). We show that the performances of this codec are reduced for lower resolutions videos. The last proposed solution for ADSL eligibility extension is finally presented for CIF resolution videos. It consists in a multi-resolution approach, where the scalable video stream is divided into two separated parts of variable relevance, which are therefore unequally protected. This proposal improves the performances up to 0. 5 dB obtained in comparison with an equal protection approach
APA, Harvard, Vancouver, ISO, and other styles
8

Hentati, Manel. "Reconfiguration dynamique partielle de décodeurs vidéo sur plateformes FPGA par une approche méthodologique RVC (Reconfigurable Video Coding)." Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0027.

Full text
Abstract:
Les travaux présentés dans cette thèse s'inscrivent dans le cadre de la conception et l'implémentation des décodeurs reconfigurables en utilisant la norme MPEG-RVC. Cette norme est développée par MPEG. Elle permet une grande flexibilité et la réutilisation des normes existantes dans un processus de reconfiguration des solutions de décodage. RVC fournit une nouvelle spécification basée sur une modélisation à flux de données nommée RVC-CAL. Dans ce travail, nous proposons une méthodologie de prototypage rapide permettant une implémentation efficace et optimisée des décodeurs reconfigurables RVC sur des cibles matérielles. Notre flot de conception est basé sur l'utilisation de la reconfiguration dynamique partielle (RDP) afin de valider les approches de reconfiguration permises par la norme MPEG-RVC. En exploitant la technique RDP, le module matériel peut être remplacé par un autre module qui a la même fonction ou le même algorithme mais une architecture différente. Ce concept permet au concepteur de configurer différents décodeurs selon les données d'entrées ou ses exigences (temps de latence, la vitesse, la consommation de la puissance). La RDP peut être aussi utilisée pour réaliser une implémentation hiérarchique des applications RVC. L'utilisation de la norme MPEG-RVC et la RDP permet d'améliorer le processus de développement ainsi que les performances du décodeur. Cependant, la RDP pose plusieurs problèmes tels que le placement des tâches et la fragmentation du FPGA. Ces problèmes ont une influence sur les performances de l'application. Pour remédier à ces problèmes, nous avons proposé une approche de placement hors ligne qui est basée sur l'utilisation d'une méthode d'optimisation, appelée la programmation linéaire. L'application de cette approche sur différentes combinaisons de données ainsi que la comparaison avec une autre méthode ont montré l'efficacité et les performances de l'approche proposée
The main purpose of this PhD is to contribute to the design and the implementation of a reconfigurable decoder using MPEGRVC standard. The standard MPEG-RVC is developed by MPEG. Lt aims at providing a unified high-level specification of current and future MPEG video coding technologies by using dataflow model named RVC-CAL. This standard offers the means to overcome the lack of interpretability between many video codecs deployed in the market. Ln this work, we propose a rapid prototyping methodology to provide an efficient and optimized implementation of RVC decoders in target hardware. Our design flow is based on using the dynamic partial reconfiguration (DPR) to validate reconfiguration approaches allowed by the MPEG-RVC. By using DPR technique, hardware module can be replaced by another one which has the same function or the same algorithm but a different architecture. This concept allows to the designer to configure various decoders according to the data inputs or her requirements (latency, speed, power consumption,. . ). The use of the MPEG-RVC and the DPR improves the development process and the decoder performance. But, DPR poses several problems such as the placement of tasks and the fragmentation of the FPGA area. These problems have an influence on the application performance. Therefore, we need to define methods for placement of hardware tasks on the FPGA. Ln this work, we propose an off-line placement approach which is based on using linear programming strategy to find the optimal placement of hardware tasks and to minimize the resource utilization. Application of different data combinations and a comparison with sate-of-the art method show the high performance of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
9

Le, Guen Benjamin. "Adaptation du contenu spatio-temporel des images pour un codage par ondelettes." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355207.

Full text
Abstract:
Les limites de l'ondelette séparable standard, dans le cas 2D, sont bien connues. Le support rectangulaire fixe de l'ondelette ne permet pas d'exploiter la géométrie des images et en particulier les corrélations le long de contours courbes. Ceci se traduit par une dispersion de l'énergie des coefficients dans le domaine ondelette et produit un phénomène de rebonds gênant visuellement lors d'une approximation avec un petit nombre de coefficients. Pour y remédier, une seconde génération d'ondelettes est née. L'approche la plus courante est de déformer le noyau d'ondelette pour l'adapter au contenu géométrique d'une image.
Dans cette thèse, nous proposons d'aborder le problème d'adaptativité sous un angle différent. L'idée est de déformer le contenu d'une image pour l'adapter au noyau d'ondelette séparable standard. La déformation est modélisée par un maillage déformable et le critère d'adaptation utilisé est le coût de description de l'image déformée. Une minimisation énergétique similaire à une estimation de mouvement est mise en place pour calculer les paramètres du maillage. A l'issue de cette phase d'analyse, l'image est représentée par une image déformée de moindre coût de codage et par les paramètres de déformation. Après codage, transmission et décodage de ces inforrnations, l'image d'origine peut être synthétisée en inversant la déformation. Les performances en compression de ce schéma par analyse-synthèse spatiales sont étudiées et comparées à celles de JPEG2000. Visuellement, on observe une meilleure reconstruction des contours des images avec une atténuation significative de l'effet rebond.
Conservant l'idée d'adapter le contenu des images à un noyau de décomposition fixe, nous proposons ensuite un schéma de codage par analyse-synthèse spatio-temporelles dédié à la vidéo. L'analyse prend en entrée un groupe d'images (GOF) et génère en sortie un groupe d'images déformées dont le contenu est adapté à une décomposition 3D horizontale-verticale-temporelle fixe. Le schéma est conçu de sorte qu'une seule géométrie soit estimée et transmise pour l'ensemble du GOF. Des résultats de compression sont présentés en utilisant le maillage déformable pour modéliser la géométrie et le mouvement. Bien qu'une seule géométrie soit encodée, nous montrons que son coût est trop important pour permettre une amélioration significative de la qualité visuelle par rapport à un schéma par analyse-synthèse exploitant uniquement le mouvement.
APA, Harvard, Vancouver, ISO, and other styles
10

Derviaux, Christian. "Evaluation de la visibilité des effets de blocs dans le codage MPEG : application à l'amélioration de la qualité visuelle de séquences video." Valenciennes, 1998. http://www.theses.fr/1998VALE0032.

Full text
Abstract:
La plupart des standards de compression video numérique actuels tels que les normes mpeg version 1 et 2, h261 et h263 sont basés sur un codage par transformation en cosinus discrète (tcd ou discrete cosine transform - dct - en anglais) et compensation de mouvement par appariement de blocs. Ils réalisent une subdivision des images en blocs carres de pixels qui sont transformés dans le domaine dct, avant d'être codés indépendamment. Afin de réaliser la compression, les coefficients dct subissent une quantification d'autant plus grossière que le taux de compression désiré est important. Cependant ce processus irréversible entraine l'apparition de discontinuités visibles le long des frontières de blocs dans les images décodées, couramment appelées effets de blocs ou artefacts de blocs. Parce que le système visuel humain est plus sensible aux motifs structures, et que de telles erreurs structurées et corrélées prévalent a l'intérieur des images décodées, nous définissons une nouvelle méthodologie afin de déterminer la visibilité des effets de blocs pour les séquences video. Notre approche est basée sur les propriétés perceptuelles de la vision humaine, et a nécessité la mise en place d'une procédure d'expérimentations psychophysiques, qui ont permis de développer une métrique objective qui inclut la sensibilité au contraste et aux fréquences spatiales, et les phénomènes de masquage spatial et temporel. La validation sur des images fixes puis sur des séquences video test a permis de vérifier une bonne corrélation avec les jugements d'observateurs. La seconde partie de ce mémoire présente une application de la mesure de visibilité développée précédemment à la réduction des effets de blocs dans les séquences video codées mpeg. Celle-ci repose sur l'utilisation d'un post-filtrage adaptatif implémentable en temps réel. L’adaptation consiste à modifier les coefficients d'un filtre de lissage variant dans l'espace en fonction des caractéristiques locales du signal vidéo et des effets de blocs. Les résultats de simulation ont été obtenus à partir de plusieurs séquences test : ils montrent que l'utilisation d'une telle structure de filtre permet une amélioration significative de la qualité visuelle de la séquence reconstruite, en atténuant de façon efficace les artefacts de codage présents, sans introduire de flou sur les contours ou les objets en mouvement a l'intérieur de la séquence.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Codage adaptatif de la vidéo"

1

Campanella, Fabrice. DivX. Paris: Micro application, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sebastian, Moeritz, ed. Understanding MPEG-4. Amsterdam: Elsevier, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

The MPEG handbook: MPEG-1, MPEG-2, MPEG-4. 2nd ed. Oxford: Elsevier/Focal Press, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

R, Wu Henry, and Rao K. Ramamohan, eds. Digital video image quality and perceptual coding. Boca Raton, FL: Taylor & Francis, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Video Coding: An Introduction to Standard Codecs (I E E Telecommunications Series). Inspec/Iee, 1999.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Codage adaptatif de la vidéo"

1

Elkins, Evan. "Console Games." In Locked Out, 47–72. NYU Press, 2019. http://dx.doi.org/10.18574/nyu/9781479830572.003.0003.

Full text
Abstract:
Chapter 2 explores the history of regional lockout in console video games. As video games became popular throughout Japan and North America in the 1980s, the industry forged a system of carefully managed adaptation and distribution of games to each market. Game companies introduced region chips and differently shaped cartridges to ensure that consumers were using games on approved devices, and they eventually adopted a region code format similar to the DVD. The industry’s longtime use of regional lockout helped set the contours of global distribution, but it also fomented a network of piracy, game and console hacking, and informal trade among consumers who typify the “hardcore” gamer. Knowing how to navigate and circumvent regional lockout became a marker of participation in hardcore gamer communities. Chapter 2 thus argues that regional lockout did more than simply control global video game distribution paths. It also helped shape the contours of hardcore gamer culture.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Codage adaptatif de la vidéo"

1

He, N., J. Cao, Z. Li, and Y. Ren. "JVEC: Joint Video Adaptation and Erasure Code for Wireless Video Streaming Broadcast." In ICC 2010 - 2010 IEEE International Conference on Communications. IEEE, 2010. http://dx.doi.org/10.1109/icc.2010.5502206.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Abeysinghe, Chamath, Chris Reid, Hamid Rezatofighi, and Bernd Meyer. "Tracking Different Ant Species: An Unsupervised Domain Adaptation Framework and a Dataset for Multi-object Tracking." In Thirty-Second International Joint Conference on Artificial Intelligence {IJCAI-23}. California: International Joint Conferences on Artificial Intelligence Organization, 2023. http://dx.doi.org/10.24963/ijcai.2023/61.

Full text
Abstract:
Tracking individuals is a vital part of many experiments conducted to understand collective behaviour. Ants are the paradigmatic model system for such experiments but their lack of individually distinguishing visual features and their high colony densities make it extremely difficult to perform reliable racking automatically. Additionally, the wide diversity of their species' appearances makes a generalized approach even harder. In this paper, we propose a data-driven multi-object tracker that, for the first time, employs domain adaptation to achieve the required generalisation. This approach is built upon a joint-detection-and-tracking framework that is extended by a set of domain discriminator modules integrating an adversarial training strategy in addition to the tracking loss. In addition to this novel domain-adaptive tracking framework, we present a new dataset and a benchmark for the ant tracking problem. The dataset contains 57 video sequences with full trajectory annotation, including 30k frames captured from two different ant species moving on different background patterns. It comprises 33 and 24 sequences for source and target domains, respectively. We compare our proposed framework against other domain-adaptive and non-domain-adaptive multi-object tracking baselines using this dataset and show that incorporating domain adaptation at multiple levels of the tracking pipeline yields significant improvements. The code and the dataset are available at https://github.com/chamathabeysinghe/da-tracker.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography