Dissertations / Theses on the topic 'Renforcement de la qualité d'image'

To see the other types of publications on this topic, follow the link: Renforcement de la qualité d'image.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Renforcement de la qualité d'image.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Al, Chami Zahi. "Estimation de la qualité des données multimedia en temps réel." Thesis, Pau, 2021. http://www.theses.fr/2021PAUU3066.

Full text
Abstract:
Au cours de la dernière décennie, les fournisseurs de données ont généré et diffusé une grande quantité de données, notamment des images, des vidéos, de l'audio, etc. Dans cette thèse, nous nous concentrerons sur le traitement des images puisqu'elles sont les plus communément partagées entre les utilisateurs sur l'inter-réseau mondial. En particulier, le traitement des images contenant des visages a reçu une grande attention en raison de ses nombreuses applications, telles que les applications de divertissement et de médias sociaux. Cependant, plusieurs défis pourraient survenir au cours de la phase de traitement et de transmission : d'une part, le nombre énorme d'images partagées et produites à un rythme rapide nécessite un temps de traitement et de livraison considérable; d’autre part, les images sont soumises à un très grand nombre de distorsions lors du traitement, de la transmission ou de la combinaison de nombreux facteurs qui pourraient endommager le contenu des images. Deux contributions principales sont développées. Tout d'abord, nous présentons un framework d'évaluation de la qualité d'image ayant une référence complète en temps réel, capable de : 1) préserver le contenu des images en s'assurant que certaines informations visuelles utiles peuvent toujours être extraites de l'image résultante, et 2) fournir un moyen de traiter les images en temps réel afin de faire face à l'énorme quantité d'images reçues à un rythme rapide. Le framework décrit ici est limité au traitement des images qui ont accès à leur image de référence (connu sous le nom référence complète). Dans notre second chapitre, nous présentons un framework d'évaluation de la qualité d'image sans référence en temps réel. Il a les capacités suivantes : a) évaluer l'image déformée sans avoir recours à son image originale, b) préserver les informations visuelles les plus utiles dans les images avant de les publier, et c) traiter les images en temps réel, bien que les modèles d'évaluation de la qualité des images sans référence sont considérés très complexes. Notre framework offre plusieurs avantages par rapport aux approches existantes, en particulier : i. il localise la distorsion dans une image afin d'évaluer directement les parties déformées au lieu de traiter l'image entière, ii. il a un compromis acceptable entre la précision de la prédiction de qualité et le temps d’exécution, et iii. il pourrait être utilisé dans plusieurs applications, en particulier celles qui fonctionnent en temps réel. L'architecture de chaque framework est présentée dans les chapitres tout en détaillant les modules et composants du framework. Ensuite, un certain nombre de simulations sont faites pour montrer l'efficacité de nos approches pour résoudre nos défis par rapport aux approches existantes
Over the past decade, data providers have been generating and streaming a large amount of data, including images, videos, audio, etc. In this thesis, we will be focusing on processing images since they are the most commonly shared between the users on the global inter-network. In particular, treating images containing faces has received great attention due to its numerous applications, such as entertainment and social media apps. However, several challenges could arise during the processing and transmission phase: firstly, the enormous number of images shared and produced at a rapid pace requires a significant amount of time to be processed and delivered; secondly, images are subject to a wide range of distortions during the processing, transmission, or combination of many factors that could damage the images’content. Two main contributions are developed. First, we introduce a Full-Reference Image Quality Assessment Framework in Real-Time, capable of:1) preserving the images’content by ensuring that some useful visual information can still be extracted from the output, and 2) providing a way to process the images in real-time in order to cope with the huge amount of images that are being received at a rapid pace. The framework described here is limited to processing those images that have access to their reference version (a.k.a Full-Reference). Secondly, we present a No-Reference Image Quality Assessment Framework in Real-Time. It has the following abilities: a) assessing the distorted image without having its distortion-free image, b) preserving the most useful visual information in the images before publishing, and c) processing the images in real-time, even though the No-Reference image quality assessment models are considered very complex. Our framework offers several advantages over the existing approaches, in particular: i. it locates the distortion in an image in order to directly assess the distorted parts instead of processing the whole image, ii. it has an acceptable trade-off between quality prediction accuracy and execution latency, andiii. it could be used in several applications, especially these that work in real-time. The architecture of each framework is presented in the chapters while detailing the modules and components of the framework. Then, a number of simulations are made to show the effectiveness of our approaches to solve our challenges in relation to the existing approaches
APA, Harvard, Vancouver, ISO, and other styles
2

Chetouani, Aladine. "Vers un système d'évaluation de la qualité d'image multi-critères." Phd thesis, Université Paris-Nord - Paris XIII, 2010. http://tel.archives-ouvertes.fr/tel-00560808.

Full text
Abstract:
L'évaluation de la qualité d'image est un élément critique dans de nombreuses applications multimédias et en particulier lorsque l'observateur est le juge ultime. En général, le contrôle de la qualité des systèmes d'acquisitions de données est réalisé à partir de l'évaluation de la qualité d'image subjective. Cependant, les méthodes d'évaluation psycho-visuelle sont complexes, non reproductibles et dépendent de nombreux facteurs. Ces contraintes ont conduit alors à l'élaboration de nouvelles approches objectives basées sur des techniques d'analyse du signal image. Ainsi, au cours des deux dernières décennies, de nombreuses méthodes d'évaluation de la qualité d'image ont été proposées. Cependant, il n'existe pas actuellement de métrique de qualité d'image standard. L'objectif de ce travail de thèse est de proposer une approche multidimensionnelle de l'évaluation de la qualité d'image. Nous avons ainsi développé un nouveau système d'estimation de la qualité d'image (avec et sans référence) basée sur l'identification et la classification des artefacts. Cette connaissance a priori est ensuite utilisée pour sélectionner la métrique la plus appropriée. Les résultats obtenus sont très encourageants et invitent à progresser selon la démarche proposée en enrichissant le système développé par l'étude d'autres distorsions.
APA, Harvard, Vancouver, ISO, and other styles
3

Le, Quyet Tien. "Vers une analyse et une compréhension de la qualité d'image." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT060.

Full text
Abstract:
Dans cette thèse, les principales contributions sont d'étudier 2 aspects principaux de la qualité d'image, y compris l'esthétique de l'image, le naturel de l'image et les relations entre les 2 concepts. Plus précisément, l'esthétique de l'image est la mesure de la façon dont une photo répond esthétiquement aux attentes de l'observateur, tandis que la définition du naturel de l'image est à la fois liée aux artefacts induits par certains algorithmes de traitement d'image et au sentiment individuel sur la façon dont une image correspond à la mémoire d'image. Du côté de l'esthétique de l'image, la thèse aborde le problème de l'évaluation des rôles des opérations de prétraitement dans l'évaluation esthétique de l'image. Des modèles d'évaluation esthétique d'image basés sur une segmentation d'image préalable (extraction de la région d'intérêt) et une classification d'image antérieure (classification d'image grand champ / gros plan) ont été développés et comparés à des modèles d'évaluation esthétique d'image sans étapes de pré-traitement. Dans le même temps, différents modèles basés soit sur des caractéristiques artisanales, soit sur des caractéristiques apprises ont été étudiés aux fins d'estimation esthétique de l'image. Sur la base des résultats obtenus, un modèle d'évaluation esthétique d'image basé sur la classification d'image et la segmentation de région a été introduit et évalué. Du côté du naturel de l'image, le naturel de l'image des images à plage dynamique standard, en particulier des images à tonalité, a été étudié avec des méthodologies à la fois subjectives et objectives. Une expérience subjective a été organisée pour recueillir d'abord des évaluations humaines sur la naturalité de l'image. Ensuite, divers algorithmes objectifs ont été validés sur les données subjectives collectées pour la tâche d'évaluation de la naturalité de l'image. Ce travail se concentre sur le problème du développement d'un modèle dans un premier temps pour estimer si une image semble naturelle ou non aux humains et le second objectif est d'essayer de comprendre comment le sentiment de contre-nature est induit par une photo: "Y a-t-il des indices spécifiques de contre-nature ou de contre-nature un sentiment général en regardant une photo? ". Enfin, les relations entre les 2 aspects: esthétique de l'image et naturalité de l'image ont été évaluées et discutées
In this thesis, the main contributions are to study 2 main aspects of image quality including image aesthetic, image naturalness and the relations between the 2 concepts. More specifically, image aesthetic is the measure of how aesthetically a photo fulfills the observer’s expectation while the image naturalness definition is both related to artifacts induced by some image processing algorithms and to the individual feeling about how a picture matches with image memory. On the side of image aesthetic, the thesis deals with the problem of evaluating the roles of pre-processing operations in image aesthetic assessment. Image aesthetic assessment models based on prior image segmentation (region of interest extraction) and prior image classification (large field / close-up image classification) have been developed and compared with image aesthetic assessment models without pre-processing stages. At the same time different models base either on handcrafted features or learned features have been studied for the purpose of image aesthetic estimation. Based on the obtained results, an image aesthetic assessment model based on image classification and region segmentation has been introduced and evaluated. On the side of image naturalness, image naturalness of standard dynamic range images, especially tone-mapped images have been studied with both subjective and objective methodologies. A subjective experiment has been organized to collect human evaluations about image naturalness first. Then, various objective algorithms have been validated on the collected subjective data for the image naturalness assessment task. This work focuses on the problem of developing a model firstly to estimate if an image looks natural or not to humans and the second purpose is to try to understand how the unnaturalness feeling is induced by a photo: "Are there specific unnaturalness clues or is unnaturalness a general feeling when looking at a photo?". Finally, the relations between the 2 aspects: image aesthetic and image naturalness have been evaluated and discussed
APA, Harvard, Vancouver, ISO, and other styles
4

Souidène, Wided. "Exploitation de la diversité informationnelle en restauration autodidacte et évaluation de qualité." Paris 13, 2007. http://www.theses.fr/2007PA132015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Vinsonneau, Emile. "La qualité d'image dans le contexte de la numérisation de livres anciens." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0057/document.

Full text
Abstract:
L'objectif de cette thèse est de proposer des méthodes ou des outils de calibration permettant d'améliorer la qualité d'image dans le cadre de la numérisation de livres anciens.Le premier chapitre concerne la mise en oeuvre d'un "scanner sans éclairage". Ce scanner est matriciel et il ne contrôle pas la lumière via un éclairage artificiel. L'objectif du projet est de pouvoir corriger, par calibration ou par la mise en place d'un traitement d'image les défauts d'éclairage apparaissant sur le document. Nous verrons dans un premier chapitre les solutions possibles pour y répondre. Nous y proposerons également un moyen de segmenter le fond du document en se basant sur des pixels caractérisants le fond du document. Ce résultat permettra de reconstruire le fond puis de corriger les non-uniformités.Le deuxième chapitre concerne la mise en place d'un contrôle qualité de numérisation de livres anciens. Effectivement, la manipulation du matériel dans le contexte de la numérisation industrielle engendre des erreurs possibles de réglage. De ce fait, nous obtenons une numérisation de moindres qualités. Le contrôle se focalisera sur le flou de focus qui est le défaut le plus présent. Nous proposons dans ce chapitre de combiner différentes approches du problème permettant de le quantifier. Nous verrons que la combinaison de ces informations permet d'estimer avec précision la qualité de netteté de l'image.Le troisième chapitre évoque les problématiques de la gestion de la couleur. Pour avoir une homogénéité colorimétrique entre tous les appareils, il est indispensable que la calibration soit inférieure à un seuil visuel. Les contraintes industrielles ont de nombreux critères et il est difficile de tous les respecter. L'objectif de ce chapitre est de récapituler comment mettre en place un système permettant de calibrer la couleur avec toutes ces contraintes. Puis, il s'agit de comprendre comment créer une transformation entre l'espace de couleur de l'appareil et l'espace de couleur de connexion (l'espace L*a*b*). Nous verrons que la solution de ce problème se résout par une régression polynomiale dont le degré du polynôme varie en fonction du nombre de mesures faite sur la mire colorimétrique
The goal of this thesis is to add some tools in order to upgrade image quality when scanning with book digitization.First Chapter talks about image scanner whitout lighting control. This problem focuses to document camera. The goal is to correct lighting. We will see some corrections and we will suggest our method. For this part, we detect pixel's background document and we will rebuild the background of the image by them. With this information, we can correct lighting.Second chapter presents some way to do quality control after digitization, specially out of focus problem. We will enumerate different point of view to analyse and to estimate this information. To validate descriptors, we suggest to blur any picture and to compute blur estimation in order to evaluate precision. After that, we propose to combinate descriptors by machine learning.Third chapter mentions color management problem. Every image devices need to be calibrated. This chapter will expose how to calibrate scanner and explain it. We will see that L*a*b* color space is the connection profil space. To calibrate color, we must transform scanner color space to L*a*b*. We will see, in order to convert information, solution depends color chart used but we show a link between the function and thenumber of patch
APA, Harvard, Vancouver, ISO, and other styles
6

Gharbi, Imen. "Tatouage pour le renforcement de la qualité audio des systèmes de communication bas débit." Phd thesis, Université René Descartes - Paris V, 2013. http://tel.archives-ouvertes.fr/tel-00817318.

Full text
Abstract:
L'objectif de cette thèse est d'étudier l'idée du tatouage dans le traitement du son.Les recherches en tatouage audio se sont principalement tournées vers des applications sécuritaires ou de transmission de données auxiliaires. Une des applications visées par ce concept consiste à améliorer la qualité du signal hôte ayant subi des transformations et ceci en exploitant l'information qu'il véhicule. Le tatouage audio est donc considéré comme mémoire porteuse d'informations sur le signal originel. La compression à bas débit des signaux audio est une des applications visée par ce concept. Dans ce cadre, deux objectifs sont proposés : la réduction du pré-écho et de l'amollissement d'attaque, deux phénomènes introduits par les codeurs audio perceptifs, en particulier les codeurs AAC et MP3; la préservation de l'harmonicité des signaux audio dégradée par les codeurs perceptifs à extension de bande, en particulier le codeur HE-AAC.La première partie de ce manuscrit présente les principes de base des systèmes de codage bas débit et étudie les différentes distorsions introduites par ces derniers. Fondées sur cette étude, deux solutions sont proposées. La première, visant principalement la réduction du pré-écho, consiste à corriger l'enveloppe temporelle du signal après réception en exploitant la connaissance a priori de l'enveloppe temporelle du signal original, supposée transmise par un canal auxiliaire à faible débit (< 500 bits/s). La seconde solution vise à corriger les ruptures d'harmonicité générées par les codeurs à extension de bande. Ce phénomène touche essentiellement les signaux fortement harmoniques (exemple : violon) et est perçu comme une dissonance. Une préservation de l'harmonicité des signaux audio par des opérations de translation spectrale est alors proposée, les paramètres étant là encore transmis par un canal auxiliaire à faible débit.La seconde partie de ce document est consacrée à l'intégration du tatouage audio dans les techniques de renforcement de la qualité des signaux audio précitées. Dans ce contexte, le tatouage audio remplace le canal auxiliaire précédent et œuvre comme une mémoire du signal originel, porteuse d'informations nécessaires pour la correction d'harmonicité et la réduction de pré-écho. Cette seconde partie a été précédée par une étape approfondie de l'évaluation des performances de la technique de tatouage adoptée en terme de robustesse à la compression MPEG (MP3, AAC et aacPlus).
APA, Harvard, Vancouver, ISO, and other styles
7

Limare, Nicolas. "Recherche reproductible, qualité logicielle, publication et interfaces en ligne pour le traitement d'image." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00783299.

Full text
Abstract:
Cette thèse est basée sur une étude des problèmes de reproductibilité rencontrés dans la recherche en traitement d'image, et de manière générale dans les sciences appliquées et informatiques. Partant du constat du manque de vérifiabilité des publications scientifiques et de implémentations associées aux algorithmes publiés, nous avons conçu, créé et développé un journal scientifique, Image Processing On Line (IPOL), dans lequel nous proposons un nouveau mode d'évaluation et de publication de la recherche en traitement d'image afin d'atteindre une meilleure fiabilité des logiciels et algorithmes issus de la recherche.
APA, Harvard, Vancouver, ISO, and other styles
8

Ortiz, Cayón Rodrigo. "Amélioration de la vitesse et de la qualité d'image du rendu basé image." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4004/document.

Full text
Abstract:
Le rendu photo-réaliste traditionnel exige un effort manuel et des calculs intensifs pour créer des scènes et rendre des images réalistes. C'est principalement pour cette raison que la création de contenus pour l’imagerie numérique de haute qualité a été limitée aux experts et le rendu hautement réaliste nécessite encore des temps de calcul significatifs. Le rendu basé image (IBR) est une alternative qui a le potentiel de rendre les applications de création et de rendu de contenus de haute qualité accessibles aux utilisateurs occasionnels, puisqu'ils peuvent générer des images photo-réalistes de haute qualité sans subir les limitations mentionnées ci-dessus. Nous avons identifié trois limitations importantes des méthodes actuelles de rendu basé image : premièrement, chaque algorithme possède des forces et faiblesses différentes, en fonction de la qualité de la reconstruction 3D et du contenu de la scène, et un seul algorithme ne permet souvent pas d’obtenir la meilleure qualité de rendu partout dans l’image. Deuxièmement, ces algorithmes présentent de forts artefacts lors du rendu d’objets manquants ou partiellement reconstruits. Troisièmement, la plupart des méthodes souffrent encore d'artefacts visuels significatifs dans les régions de l’image où la reconstruction est de faible qualité. Dans l'ensemble, cette thèse propose plusieurs améliorations significatives du rendu basé image aussi bien en termes de vitesse de rendu que de qualité d’image. Ces nouvelles solutions sont basées sur le rendu sélectif, la substitution de modèle basé sur l'apprentissage, et la prédiction et la correction des erreurs de profondeur
Traditional photo-realistic rendering requires intensive manual and computational effort to create scenes and render realistic images. Thus, creation of content for high quality digital imagery has been limited to experts and highly realistic rendering still requires significant computational time. Image-Based Rendering (IBR) is an alternative which has the potential of making high-quality content creation and rendering applications accessible to casual users, since they can generate high quality photo-realistic imagery without the limitations mentioned above. We identified three important shortcomings of current IBR methods: First, each algorithm has different strengths and weaknesses, depending on 3D reconstruction quality and scene content and often no single algorithm offers the best image quality everywhere in the image. Second, such algorithms present strong artifacts when rendering partially reconstructed objects or missing objects. Third, most methods still result in significant visual artifacts in image regions where reconstruction is poor. Overall, this thesis addresses significant shortcomings of IBR for both speed and image quality, offering novel and effective solutions based on selective rendering, learning-based model substitution and depth error prediction and correction
APA, Harvard, Vancouver, ISO, and other styles
9

Chanliau, Sandrine. "Marqueurs de la qualité aromatique du cacao - Influence de l'origine. Renforcement de l'arôme d'origine thermique." Montpellier 2, 1998. http://www.theses.fr/1998MON20222.

Full text
Abstract:
La caracterisation des fractions volatiles de plusieurs lots de cacaos issus de cinq origines geographiques (madagascar, cote d'ivoire, ghana, sulawesi, equateur) a ete realisee avant et apres torrefaction. Apres extraction par entrainement a la vapeur, les fractions volatiles des echantillons sont analysees par chromatographie en phase gazeuse et les composes volatils caracterises par couplage gc/ms. Les composes odorants de ces fractions sont determines par olfactometrie (methode aeda) et identifies par comparaison avec des echantillons temoins. 44 composes odorants presentant une forte contribution a l'arome cacao ont ainsi ete identifies. Des differences de teneurs en composes volatils sont observees entre les origines de cacaos. La contribution aromatique des composes odorants clefs varie egalement en fonction de l'origine du cacao, impliquant des aromes differents. L'etude du melange d'un cacao de madagascar et d'un cacao du ghana en proportion variable a ete effectuee afin d'evaluer l'impact de chacun des constituants sur le profil aromatique. L'addition jusqu'a 20% d'un cacao d'une autre origine ne modifie que tres peu le profil aromatique par rapport a celui du cacao de pure origine. Une etude de supplementation en precurseurs (sucres reducteurs, acides amines) a ete conduite sur un cacao du sulawesi dont la caracteristique est son faible potentiel aromatique, du a une sous fermentation. Les conditions optimales de supplementation ont ete definies afin d'obtenir le developpement d'un arome thermique aussi intense que celui d'un cacao du ghana pris comme reference.
APA, Harvard, Vancouver, ISO, and other styles
10

Hiraoui, Moadh. "Caractérisation de la fatigue musculaire, réadaptation à l'effort et qualité de vie chez une population atteinte d'un cancer du sein." Thesis, Amiens, 2017. http://www.theses.fr/2017AMIE0037/document.

Full text
Abstract:
L'objectif de ce travail était d'étudier les effets combinés d'un entrainement aérobie intermittent supervisé, d'un entrainement de renforcement musculaire et d'électrostimulation et d'un programme de marche continu à domicile, sur l'aptitude cardiorespiratoire, sur la fonction musculaire et la qualité de vie des patientes atteintes d'un cancer du sein au cours de traitement par chimiothérapie adjuvante. Les mesures ont été réalisées avant et après 6 semaines d'entrainement sur un groupe entrainé (n=20), et à 6 semaines d'intervalle sans modification de l'activité physique sur un groupe témoin (n= 12). Par comparaison avec les témoins, la première étude a montré les effets positifs de notre protocole d'entrainement sur l'aptitude aérobie et les besoins métaboliques de nos patientes entrainées. De même, la deuxième étude a révélé les importantes augmentations de la FMVi, du TE lors d'un test isométrique, et de la désoxygénation musculaire ΔHHb, suggérant une amélioration de l'utilisation de l'oxygène au niveau musculaire dans le groupe entrainé après six semaines d'entrainement. Par ailleurs, les résultats de la troisième étude ont confirmé les effets sur la fonction musculaire, en observant une amélioration de l'activité myoélectrique du vaste latéral, caractérisée par la diminution du RMS et l'augmentation du MPF lors de la phase du maintien à 50% de la FMVi, dans le groupe entrainé après les six semaines d'entrainement combiné aérobie et de renforcement musculaire. Enfin, dans la quatrième étude, nous avons observé une amélioration significative de la qualité de vie du groupe entrainé. Cette amélioration est caractérisée d'une part, par une augmentation de la qualité de vie globale et des scores aux échelles fonctionnelles, d'autre part, d'une réduction des scores des échelles de symptômes chez les cancéreuses traitées par chimiothérapie adjuvante
The objective of this investigation was to study the combined effects of supervised intermittent aerobic training, muscle strength training with electrostimulation and a continuous home-walking program, on cardiorespiratory fitness, muscle function and quality of life of patients with breast cancer during adjuvant chemotherapy period. Measurements were performed before and after 6 weeks of training on a trained group (n = 20), and 6 weeks apart without any change in physical activity on a control group (n = 12). Compared to controls, the first study showed the positive effects of our training protocol on the aerobic fitness and metabolic needs of our trained patients. Similarly, the second study revealed significant increases in MViC, ET in an isometric test, and muscle deoxygenating ΔHHb, suggesting an improvement in the use of oxygen in the muscle in the trained group after Six weeks of training. In addition, the results of the third study confirmed the effects on muscular function by observing an improvement in the myoelectric activity of the Vastus lateralis, characterized by the decrease of the RMS and the increase of the MPF during the holding phase of 50% of the MViC, in the trained group after the six weeks combined aerobic training and muscle strengthening. Finally, in the fourth study, we observed a significant improvement in the quality of life of the trained group. This improvement is characterized, on the one hand, by an increase in the overall quality of life and scores at the functional scales, and on the other hand by a reduction in the scores of symptom scales in cancer patients treated with adjuvant chemotherapy
APA, Harvard, Vancouver, ISO, and other styles
11

Johannes, Pauline. "L'efficacité du comité d'audit dans le renforcement de la qualité de l'audit et de l'information financière." Thesis, Strasbourg, 2020. http://www.theses.fr/2020STRAB004.

Full text
Abstract:
Cette thèse s’intéresse aux facteurs favorisant l’efficacité du comité d’audit et leur impact sur la qualité de l’audit et de l’information financière. Dans un état de l’art, nous identifions deux cadres d’analyse. Le premier repose sur l’influence de la composition du comité sur son efficacité. Le second est relatif aux dynamiques autour et au sein du comité. Ce dernier nous amène à étudier la dynamique de renouvellement des membres du comité et l’impact sur son efficacité, puis à analyser les relations de pouvoir entre membres du comité et dirigeant. L’analyse de ces facteurs est réalisée à partir d’une base de données originale composée des sociétés cotées du SBF 120 sur la période 2007-2016. Nous mettons en évidence l’effet du renouvellement des membres du comité d’audit sur la qualité de l’audit externe. Nous soulignons également l’importance de l’influence relative du comité par rapport au dirigeant pour garantir la qualité de l’information financière
This dissertation focuses on factors of audit committee efficiency and their impacts on audit and financial information quality. In our literature review, we identify two frameworks. The first is based on the influence of audit committee’s membership over its efficiency. The second is related to dynamics around and in the committee. This framework brings us to study the impact of audit committee members’ change dynamics on its efficiency, and to analyse power relations between audit committee members and CEO. Analysis of these factors is based on an original database which regroups the companies forming the SBF-120 over the 2007-2016 period. We highlight the effect of audit committee members’ renewal on audit quality. We also show the audit committee influence relative to the CEO to assure quality of financial information
APA, Harvard, Vancouver, ISO, and other styles
12

Yang, Yanqin. "Contribution à l'évaluation objective de la qualité d'images couleur estimées par dématriçage." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10089/document.

Full text
Abstract:
Les travaux menés dans cette thèse portent sur le dématriçage d'images intégré dans une caméra couleur mono capteur. Ce type de caméra acquiert une seule composante couleur en chaque pixel grâce à un filtre CFA (Colour Filter Array) spectralement sélectif. La procédure dite de dématriçage consiste à estimer les deux composantes couleur manquantes en chaque pixel pour obtenir une image couleur. Nous proposons donc de déterminer, parmi les méthodes de dématriçage, celles qui fournissent des images couleur les mieux adaptées à l’analyse automatique des images. Dans un premier temps, nous présentons les principes de l’acquisition d’images numériques couleur par les caméras mono capteur. Après avoir expliqué l’influence de la structure du CFA sur la performance du dématriçage, nous focalisons nos études sur le dématriçage d’image issue du CFA de Bayer. Une formalisation mathématique du dématriçage de l’image CFA en image couleur est ensuite proposée avant de présenter les nombreuses méthodes de dématriçage parues dans la littérature ainsi que les post-traitements qui corrigent les couleurs estimées par dématriçage. Puis, nous nous intéressons aux critères d'évaluation de la qualité des images estimées par dématriçage. En premier lieu, nous décrivons les différents artefacts pouvant être générés par le dématriçage ainsi que la formation de ces artefacts, ce qui permet de bien cerner les limites atteintes par les critères classiques d’évaluation de la qualité des images estimées. Nous proposons alors deux mesures originales qui quantifient la présence de chaque type d'artéfacts (fausse couleur et effet de fermeture éclair). Enfin, nous présentons de nouveaux critères basés sur l’analyse de primitives extraites des images, en mesurant la qualité des contours qui y sont détectés
Our work deals with the quality of colour images provided by a mono-CCD colour camera, which acquires only one colour component at each pixel by means of the CFA (Colour Filter Array) which covers the CCD sensor. A procedure - called demosaicing - is necessary to estimate the other two missing colour components at each pixel, so as to obtain a colour image in this kind of cameras. We aim to determine which method of demosaicing provides the results that are best adapted to colour image analyses for the reconstruction of scene. First, we present the principles on how the mono-CCD cameras acquire digital colour images, as well as the different arrangements of CFA used in such cameras. Once the influence of the CFA arrangement on the performance of demosaicing has been presented, we focus our studies on the demosaicing methods based on the Bayer CFA. A mathematical formalization for demosaicing is proposed before we present the numerous demosaicing methods in the literature, as well as the post-processing algorithms to correct the demosaiced images. We then investigate the evaluation criteria for the quality of the colour images estimated by demosaicing. First are described the different possible artefacts generated by demosaicing and the reasons for their generation, which allow us to point out the limits of the classical measures used to evaluate the estimated images. We then propose two original measures to quantify the presence of the two main artefacts, namely false colour and zipper effect. At last, we present new criteria based on the analysis of features extracted from colour images, by measuring the quality of edge detection in the estimated images
APA, Harvard, Vancouver, ISO, and other styles
13

N'Diaye, Mambaye. "Analyse de la qualité du tissu osseux." Angers, 2013. http://www.theses.fr/2013ANGE0085.

Full text
Abstract:
L'analyse de la qualité du tissu osseux et des biomatériaux utilisés pour le comblement osseux en cas de défauts a été étudiée par analyse d'image sur ordinateur. Nous avons proposé de nouvelles méthodes de calcul de certains paramètres caractérisant l'état de surface du tissu osseux et des biomatériaux. La mise en évidence du gonflement de PMMA par microscopie interférence est possible après normalisation des images sous Matlab. Nous avons aussi proposé une nouvelle méthode de calcul de porosité en utilisant des paramètres (lacunarité et succolarité) basés sur la géométrie fractale. Cette méthode proposée tient en compte d'autres paramètres tels que la taille des pores, leur interconnectivité et la régularité de leur arrangement spatial. Nous avons mis au point un autre logiciel permettant de récupérer des images tridimensionnelles de microCT correspondant à des structures tubulaires creuses (par exemple le tissu osseux cortical), et de les dérouler de façon à en former une image plane sur laquelle les surfaces endostéale et pérostéale peuvent aisément être mesurées. Ce logiciel a permis de démontrer que l'effet de l'acide zolédronique est supérieur à celui du pamidronate dans la préservation de l'os cortical dans le modèle 5 T2 de myélome multiple
Analysis of the quality ofbone and biomaterials (used for bone graft in the case of defects) was studied by computer image analysis. We have proposed new methods of calculating certain parameters characterizing the surface of bone tissue and biomaterials. Determination of the swelling of PMMA by interference microscopy is possible after image normalization in Matlab. We also proposed a new method of calculating porosity using parameters (lacunarity and succolarity) based on fractal geometry. This proposed method allows the determination of Other parameters such as pore size, pore interconnectivity and the regularity of their spatial arrangement. We have developed another software which use three-dimensional microCT images (corresponding to tubular structures such as cortical bone) and to unwrap them to form a flat image on which the endosteal and periosteal surface can easily be measured. This software has allowed us to demonstrate that zoledronic acid is more potent than pamidronate in the preservation of cortical bone in the 5T2 model of multiple myeloma in which cortical perforation are observed
APA, Harvard, Vancouver, ISO, and other styles
14

Racine, Paschal. "Influence d'un renforcement en matériaux composites sur le comportement d'une poutre en bois scié de qualité inférieure." Mémoire, Université de Sherbrooke, 2002. http://savoirs.usherbrooke.ca/handle/11143/1175.

Full text
Abstract:
Le renforcement de poutres en bois à l'aide de matériaux composites est à ses débuts. Beaucoup de recherches ont été faites au niveau des poutres en lamellé-collé comparativement aux poutres en bois scié. En effet, la haute qualité de bois utilisée dans la confection de ces poutres font que celles-ci posent moins de problèmes quant au calcul analytique. Par ailleurs, les études effectuées sur les poutres en bois scié doivent considérer le comportement face au mode de rupture, la quantité de matériaux composites à utiliser et le type de renforcement employé. Les récentes études ont indiqué que les poutres en bois scié semblent démontrer un phénomène de pontage des contraintes dans le bois. En effet, ce pontage augmente la résistance en flexion de ces poutres de façon très marquante. On a aussi démontré que les calculs analytiques faits avec les modèles simples de la résistance des matériaux ne représentent pas la réalité expérimentale observée. Cette recherche aura donc pour but l'étude du comportement en flexion des poutres en bois scié de qualité inférieure renforcées de matériaux composites."--Résumé abrégé par UMI
APA, Harvard, Vancouver, ISO, and other styles
15

Karmani, Majdi. "Le renforcement de la gouvernance d’entreprise et la qualité des états financiers : cas des entreprises françaises cotées." Thesis, Bordeaux 4, 2013. http://www.theses.fr/2013BOR40006.

Full text
Abstract:
À la suite des derniers scandales financiers, des différents codes de bonnes pratiques et des multiples réformes institutionnelles, la question de la relation entre le renforcement de la gouvernance d’entreprise et son efficacité n’a pas été abordée empiriquement en France. Cette recherche contribue à ce débat en examinant l’influence des mécanismes de gouvernance d'entreprise sur la gestion du résultat.En se basant sur trois stades d’études complémentaires, cette recherche évalue les spécificités de la gouvernance française sur la qualité des états financiers à partir d’une analyse factorielle confirmatoire, d’une régression logistique binaire et des modèles discrétionnaires basés sur les « accruals », les seuils et les scores de manipulations. L’estimation des paramètres des modèles et la durée de l’étude ont été fixé après la vérification de la comparabilité des chiffres comptables après l’entrée en vigueur des normes IAS/IFRS. Les principaux résultats indiquent qu’il faut généraliser certaines pratiques de gouvernance d’entreprise en donnant un appui au législateur et aux partisans des réformes financières afin de garantir une meilleur qualité de l’information financière
This dissertation investigates and empirically tests the relationship between corporate governance strength and corporate governance effectiveness on the quality of the reported financial statements. Despite, concerns about the strengthen of the corporate governance structure and its effectiveness on earnings management, the relation between corporate governance strength and corporate governance effectiveness is not empirically well developed in France.Using three stages of follow-up studies, this research estimates the specificities of the French corporate governance on the quality of financial statements from a factorial confirmatory analysis, a binary logistic regression and discretionary models based on "accruals", "revenues" and scores of manipulations. The estimation of the parameters of the models and the duration of the study were fixed after the check of the comparability of the accounting numbers after the adoption of the IAS/IFRS GAAP.The main results indicate that it is necessary to generalize certain practices of the French corporate governance, by giving support to both the legislator and the partisans of the financial reforms in order to enhance the quality of the financial information
APA, Harvard, Vancouver, ISO, and other styles
16

Billon, Astrid. "Méthode d'évaluation non-destructive de la qualité du collage des composites de renforcement pour le génie civil." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1091/document.

Full text
Abstract:
Dans le secteur du génie civil, le renforcement structural et la réparation des ouvrages en béton par collage de polymère renforcé de fibres de carbone (PRFC) sont des techniques désormais répandues. Les performances et la durabilité du système de renforcement sont intrinsèquement liées à la qualité du collage entre le matériau composite et le béton. Or, en pratique, les conditions environnementales et les contraintes liées au chantier ne permettent pas d’assurer l’intégrité de ce collage, dont les propriétés évoluent par ailleurs dans le temps en raison des phénomènes de vieillissement. La vérification in-situ par une méthode non-destructive de l’état du collage est donc une étape importante pour garantir les propriétés d'usage tout au long de la vie du renforcement.Une méthode d’évaluation non-destructive est développée dans le cadre de cette étude. Elle s’inspire de l’essai standard d’arrachement en traction directe bien connu sur le terrain. La méthode repose sur un essai mécanique qui caractérise le comportement en charge – déplacement de l’assemblage, et permet d’exprimer un critère d’évaluation appelé raideur d’assemblage qui dépend notamment du module d’Young de l’adhésif utilisé.La faisabilité en laboratoire de cette méthode est vérifiée sur un dispositif d’essai entièrement conçu pour les fins de l’étude. Un travail d’analyse et de dimensionnement basé sur une modélisation numérique par éléments finis permet de sélectionner des capteurs et une chaîne d’acquisition adaptés. Une formulation analytique partielle de la raideur d’assemblage est énoncée.Une campagne expérimentale sur des éprouvettes de béton renforcées par lamelles de PRFC avec trois adhésifs époxy différents est ensuite mise en œuvre. Les résultats sont interprétés en suivant une approche statistique qui prend en compte les variations de tous les paramètres d’influence. Les performances de détection de l’essai dans le cadre de notre application en laboratoire peuvent ainsi être exprimées.Des éléments contribuant à l’élaboration d’une méthodologie d’essai applicable in-situ sont enfin apportés, et les performances de l’essai sont rediscutées en vue de cette transposition sur le terrain
Over the last 30 years, repairing and strengthening techniques of concrete structures using externally bonded carbon fiber reinforced polymer (CFRP) composites have gained much popularity and are now widespread. The effectiveness of the strengthening systems highly depends on the level of adhesion between the composite material and the concrete surface. Therefore, on-site evaluation of the bond quality is crucial to assess the performance and predict the durability of the reinforcement system.It is proposed to determine the bond properties of the adhesive layer within the reinforcement system by using a nondestructive test (NDT) method derived from the standard and well-known pull-off test. This method consists in analyzing the linear load vs displacement behavior of the adhesive joint, in order to determine an assembly stiffness which can be related to the Young’s modulus of the adhesive layer.In order to investigate the feasibility of the test method, a laboratory implementation is carried out on a mechanical device fully designed for the purpose of the present study. Suitable displacement sensors and an appropriate measurement chain are chosen based on a finite element modeling and a mechanical analysis of the test. A partial analytical form of the assembly stiffness is also expressed.The test method is then applied to concrete slabs reinforced with CFRP plates using three different epoxy adhesives. A statistical assessment of all identified parameters of influence sheds light on the results. In the end, the performances of the test performed in laboratory conditions are discussed.Finally, foundations for a relevant test methodology on real field conditions are laid, and the above-mentioned performances are reviewed
APA, Harvard, Vancouver, ISO, and other styles
17

Quintard, Ludovic. "Evaluation de la qualité des dispositifs d'affichage couleur : des évaluations subjectives à la mesure objective." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Quintard-Ludovic/2008-Quintard-Ludovic-These.pdf.

Full text
Abstract:
Cette thèse a été effectuée en collaboration avec le Laboratoire national de métrologie et d’essais(LNE) dans le cadre d’une convention CIFRE. Dans ce travail, nous cherchons à réaliser une métrique objective dédiée à l’évaluation des dispositifs de restitution d’images (les écrans). Pour répondre à cette problématique, nous avons développé un algorithme permettant d’estimer la qualité à partir des qualités du moniteur et celles du Système visuel humain (SVH). L’algorithme développé se décompose en trois blocs. Le premier bloc prend en compte les caractéristiques d’un moniteur (fonction de transfert, gamut) pour modifier une image (envoyée à un moniteur par un dispositif numérique) en une image physique (affichée par le moniteur). Le deuxième bloc de l’algorithme modélise la transformation de l’image physique en une image perceptuelle. Cette modélisation implique la connaissance des principes de fonctionnement du système visuel humain, en particulier le codage d’une information couleur, mais aussi les attributs perceptuels intervenant dans le jugement de la qualité d’une image numérique couleur. Le troisième et dernier bloc a été développé afin d’attribuer une note de qualité à cette image perceptuelle. Une étude subjective de la qualité de cinq différents écrans LCD, faisant intervenir trente participants et conduite sur la base de six critères d’analyse, a été réalisée. Elle a permis de montrer que la teinte, la saturation et le contraste sont les facteurs prépondérants pour juger la qualité des écrans. La métrique développée à partir de ces constatations présente une corrélation satisfaisante avec les données issues de l’évaluation subjective, montrant ainsi sa proximité avec un jugement humain. Cette métrique a également été testée dans le cadre de la problématique de compression JPEG et JPEG2000 où elle s’est montrée également performante. Parmi les perspectives de ce travail, nous pouvons citer l’extension de l’étude à d’autres technologies d’écrans ainsi que la définition de bornes pour les scores de la métrique
This thesis was conducted in cooperation with the Laboratoire National de Métrologie et d’Essais (LNE) within the framework of a CIFRE convention. This work consisted in realising an objective metric dedicated to the assessment of image retrieval devices (screens). To address the underlying issues, we developed an algorithm for estimating quality using the monitor features and those of the Human Visual System. The developed algorithm is made up of three blocks. The first block takes into account the technical features of the monitor (transfer function, gamut, etc. ) to turn a digital image (sent to the monitor using a digital device) into a physical image (displayed by the monitor). The second block of the algorithm models the transformation of the physical image into a perceptual image. This modelling involves familiarity with human visual system operational principles, particularly the encoding of colour information, as well as the perceptual attributes involved in judging a colour digital image quality. The required knowledge is described in chapter 4 of the present thesis. The third and last block was developed to rate the quality of this perceptual image. A subjective study of the quality of 5 different LCD screens involving thirty participants and based on six analysis criteria was performed. It successfully showed that colour, saturation and contrast are major factors on which the screen quality is assessed. The metric developed was based on these findings and shows good correlation with subjective evaluation data, thus showing similarity with human judgement. The metric was also tested in the field of JPEG and JPEG2000 compression with similar efficiency
APA, Harvard, Vancouver, ISO, and other styles
18

Hoceini, Said. "Techniques d'apprentissage par renforcement pour le routage adaptatif dans les réseaux de télécommunication à trafic régulier." Paris 12, 2004. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002150180204611&vid=upec.

Full text
Abstract:
L'objectif de ce travail de thèse est de proposer des approches algorithmiques permettant de traiter la problématique du routage adaptatif (RA) dans un réseau de communication à trafic irrégulier. L'analyse des algorithmes existants nous a conduit à retenir comme base de travail l'algorithme Q-Routing (QR); celui-ci s'appuie sur la technique d'apprentissage par renforcement basée sur les modèles de Markov. L'efficacité de ce type de routage dépend fortement des informations sur la charge et la nature du trafic sur le réseau. Ces dernières doivent être à la fois, suffisantes, pertinentes et reflétant la charge réelle du réseau lors de la phase de prise de décision. Pour remédier aux inconvénients des techniques utilisant le QR, nous avons proposé deux algorithmes de RA. Le premier, appelé Q-Neural Routing, s appuie sur un modèle neuronal stochastique pour estil et mettre à jour les paramètres necessaires au RA. Afin d'accélérer le temps de convergence, une deuxième approche est proposée K-Shortest path Q-Routing. Elle est basée sur la technique de routage mufti chemin combiné avec l'algorithme QR, l'espace d'exploration étant réduit aux k meilleurs chemins. Les deux algorithmes proposés sont validés et comparés aux approches traditionnelles en utilisant la plateforme de simulation OPNET, leur efficacité au niveau du lL\ est mise particulièrement en évidence. En effet, ceux-ci permettent une meilleure prise en compte de l'état du réseau contrairement aux approches classiques
The aim of this thesis is to propose an algorithmic approach, \vhich allo\vs to treat the problems of adaptive routing (AR) in telecommunication networks with irregular traffic. The analysis of the existing approaches has lead us to base our \vork on tlie Q-Routing (QR) algonthm. This algorithm uses a reinforcement learning technique vhich is based on Markov models. The efficiency of these routing approaches depends on information about the network load and the nature of data fiows. This information must be sufficient and relevant and l has to reflect the real network load during the decision making phase. To overcome drawbacks of techniques using QR, ve have proposed tivo AR algorithms. The first one, which is called Q-Neural Routing, is based on a stochastic neural model, used for parameter estimation and updating required for routing. In order to reduce the convergence time, a second approach is proposed: k-Shortest path Q-Routing. It is based on a multi-patlis routing technique combined with the QR algoritlim. In this case, the exploration space is limited to k-Best paths. The proposed algorithms are validated and compared to traditional approaches using the OPNET Simulator. Their efficiency, with respect to AR, is illustrated. In fact, these algorithms allow taking into account the network state in a hetter wav than the classical approaches do
APA, Harvard, Vancouver, ISO, and other styles
19

Riot, Paul. "Blancheur du résidu pour le débruitage d'image." Thesis, Paris, ENST, 2018. http://www.theses.fr/2018ENST0006/document.

Full text
Abstract:
Nous proposons une étude de l’utilisation avancée de l’hypothèse de blancheur du bruit pour améliorer les performances de débruitage. Nous mettons en avant l’intérêt d’évaluer la blancheur du résidu par des mesures de corrélation dans différents cadres applicatifs. Dans un premier temps, nous nous plaçons dans un cadre variationnel et nous montrons qu’un terme de contrainte sur la blancheur du résidu peut remplacer l’attache aux données L2 en améliorant significativement les performances de débruitage. Nous le complétons ensuite par des termes de contrôle de la distribution du résidu au moyen des moments bruts. Dans une seconde partie, nous proposons une alternative au rapport de vraisemblance menant, à la norme L2 dans le cas Gaussien blanc, pour mesurer la dissimilarité entre patchs. La métrique introduite, fondée sur l’autocorrélation de la différence des patchs, se révèle plus performante pour le débruitage et la reconnaissance de patchs similaires. Finalement, les problématiques d’évaluation de qualité sans oracle et de choix local de modèle sont abordées. Encore une fois, la mesure de la blancheur du résidu apporte une information pertinente pour estimer localement la fidélité du débruitage
We propose an advanced use of the whiteness hypothesis on the noise to imrove denoising performances. We show the interest of evaluating the residual whiteness by correlation measures in multiple applications. First, in a variational denoising framework, we show that a cost function locally constraining the residual whiteness can replace the L2 norm commonly used in the white Gaussian case, while significantly improving the denoising performances. This term is then completed by cost function constraining the residual raw moments which are a mean to control the residual distribution. In the second part of our work, we propose an alternative to the likelihood ratio, leading to the L2 norm in the white Gaussian case, to evaluate the dissimilarity between noisy patches. The introduced metric, based on the autocorrelation of the patches difference, achieves better performances both for denoising and similar patches recognition. Finally, we tackle the no reference quality evaluation and the local model choice problems. Once again, the residual whiteness bring a meaningful information to locally estimate the truthfulness of the denoising
APA, Harvard, Vancouver, ISO, and other styles
20

Bleuet, Pierre. "Reconstruction 3D par tomosynthèse généralisée : application à l'imagerie médicale par rayons." Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0059/these.pdf.

Full text
Abstract:
Ce travail concerne la reconstruction en tomosynthèse numérique médicale. Cette technique permet, à partir d'un faible nombre de projections (typiquement une vingtaine) acquises sur un détecteur numérique plan, d'obtenir des informations tridimensionnelles sur la structure de l'objet étudié. L'avantage majeur de cette technique est la possibilité d'obtenir ces informations à partir d'une table de radiologie standard équipée d'un capteur numérique et de fonctions de translation/rotation, pour une dose de rayonnement équivalente à celle d'une radiographie classique. Par ailleurs, on accède en tomosynthèse à différents plans de profondeur parallèles au détecteur (des plans frontaux), ce qui diffère de la tomographie classique à partir de peu de points de vue où l'on cherche plutôt à reconstruire un plan transverse. Un problème important en tomosynthèse est le manque important de données, et plus particulièrement l'angle limité de prises de vues qui restreint considérablement la résolution spatiale verticale dans les reconstructions. D'un point de vue mathématique, ce problème de reconstruction est un problème inverse mal posé au sens où le débattement angulaire est limité, le nombre de projections réduit, ces projections étant potentiellement bruitées. Pour inverser ce problème, nous avons opté pour les méthodes algébriques et plus particulièrement les algorithmes ART (Algebraic Reconstruction Technique). Ce type de méthode permet d'améliorer la résolution par rapport à l'approche classique de reconstruction en tomosynthèse (une simple rétroprojection) mais ne traite pas le problème du bruit. Afin de stabiliser l'inversion du problème, nous adoptons un algorithme de minimisation semi-quadratique existant, dans le contexte de la tomosynthèse. Afin de limiter les temps de calcul propres à la reconstruction algébrique, nous avons développé un schéma de reconstruction et de régularisation original permettant de décomposer le volume d'intérêt en une série de plans indépendants dans le cas particulier de la tomosynthèse linéaire. Nous proposons par ailleurs des traitements visant à réduire les artefacts de troncature des projections liés à l'angle de projection où les artefacts métalliques dus à la présence éventuelle de prothèses chirurgicales dans le corps humain. Afin de tester et valider nos approches, nous avons également développé un banc de test nous procurant une certaine souplesse dans la géométrie d'acquisition. Nous montrons qu'il est possible de reconstruire des coupes grand champ pour l'imagerie thoracique avec une résolution verticale de l'ordre du centimètre et une résolution dans le plan égale à celle du détecteur (100 micronmètres au maximum). Pour d'autres applications osseuses telles que la radiographie de la cheville ou le vissage pédiculaire, les résultats sont très satisfaisants en terme de qualité image et d'artefacts de reconstruction
This work deals with reconstruction in digital medical tomosynthesis. This technique allows, starting from a low number of projections (typically twenty) acquired on a digital detector, to obtain three-dimensional information on the structure of the studied object. The main advantage of this technique is the ability to obtain such information using a standard radiological remote table with a digital detector. The X-Ray tube and detector are moving along a specific path defining the acquisition geometry. Furthermore, the total exam dose is equivalent to a single radiograph dose. The main drawback of this acquisition technique is the significant lack of data, and more particularly the limited angle of view which significantly restricts the vertical spatial resolution. From the mathematical point of view, the problem of reconstruction is a severely ill-posed inverse problem : angular range is limited, and only a few possibly noisy number of projections is available. We inverse this problem using the algebraic methods and more particularly the algorithms ART (Algebraic Reconstruction Technique). This type of method makes it possible to improve the resolution but does not deals with the noise problem. In order to improve the quality of the reconstructed object, we adapted the half-quadratic minimization algorithm in this tomosynthesis context. In order to limit the computation time, we developed a dedicated reconstruction and regularization scheme that allows to decompose the volume of interest into a series of independent reconstructed planes. Other processing are necessary to reconstruct high quality tomosynthetic slices. We propose a method to reduce truncation artifacts related to high projection angles and a metal artifacts reduction algorithm due to the possible presence of surgical prostheses within the body. In order to test and validate our approach, we built a radiological remote table with a certain flexibility in the acquisition geometry. Finally we show that it is possible to reconstruct large size images for thoracic imaging with a vertical resolution of about 1cm and a spatial resolution in the detector plane equal to the detector resolution (about 100 μm). For other bone-related applications such as the radiography of ankle or pedicular screwing, the results are very satisfactory in terms of image quality and artifacts suppression
APA, Harvard, Vancouver, ISO, and other styles
21

Tran, Hai Anh. "Une architecture orientée Qualité d'Expérience pour les réseaux de diffusion de contenus." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1108.

Full text
Abstract:
La thèse, tout en s’inscrivant dans la continuité des travaux en cours au sein du LiSSi, a pour objectif de travailler sur les approches permettant de renforcer la garantie des services complexes mettant en oeuvre une chaîne de plateformes informatiques hétérogènes. L’idée générale est de développer des mécanismes adaptatifs capables de récupérer des éléments d’information de leur environnement extérieur (Qualité de l’Expérience : QdE). La démarche consiste à s’adapter de manière dynamique et continue au critère de satisfaction de l'usager concernant un service donné au lieu d’opérer une optimisation multi-contraintes tel qu’effectuée dans les systèmes traditionnels basés sur la Qualité de Service. La thèse se focalise plus particulièrement sur la fonction centrale du routage où il s’agit de construire une méthode de routage adaptatif capable de récupérer des informations de l’environnement (représenté par l’utilisateur) et de s’adapter en temps continu à la dynamique propre à un tel environnement. Ce mécanisme de routage adaptatif est optimisé au sein d'un modèle paramétrique ayant pour objectif d'optimisation bout-en-bout d'un service donné
Nowadays, with the rapid growth of high quality network applications, the Quality of Service mechanisms, which are used to guarantee required levels of performance to data flows in network, are not enough anymore to satisfy end-users, mostly in the context of Content-Oriented Networks (CON) that is used to redesign the current Internet architecture to accommodate content-oriented applications and services. We propose in this thesis a new system that introduces the Quality of Experience (QoE), a new paradigm that represents the user’s perception, in an adaptive control/command network routing chain. Our proposed system has been applied to a Content Distribution Network (CDN) architecture. We focused on two main functions of a CDN, the routing and the server selection method, in order to improve the QoE level at end-user side. For the routing method, an algorithm named QQAR (QLearning QoE-based Adaptive Routing) has been proposed. This algorithm uses the technique of Reinforcement Learning based on Markov models and take into account as a metric the QoE perceived by the end user. Regarding the server selection method, we proposed a server selection algorithm that is motivated by the Multi-Armed Bandit problem. The two proposed algorithms are validated and compared to traditional approaches using a simulation model and a real platform
APA, Harvard, Vancouver, ISO, and other styles
22

Mambo, Shadrack. "Optimisation et évaluation des performance en traitement d'image." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1125/document.

Full text
Abstract:
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres
D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
APA, Harvard, Vancouver, ISO, and other styles
23

Louazani, Samir. "Etude par analyse d'image de la désynchronisation d'une culture de cellules cardiaques sous l'influence de digitaliques." Lyon 1, 1998. http://www.theses.fr/1998LYO10190.

Full text
Abstract:
De nombreuses drogues cardioactives utilisees pour leurs effets anti-arythmiques ou inotropes ont egalement une action sur la conduction entre les cellules du tissu cardiaque (dromotropie). Cet effet est difficile a quantifier directement sur l'organe entier et necessite en general une etude electrophysiologique detaillee au niveau cellulaire. Nous proposons ici une approche du desynchronisme cellulaire sur culture de cellules de rats nouveau-nes contractiles spontanement, par analyse d'images dynamiques sous microscope. Des sequences de 128 images correspondant a plusieurs contractions successives sont acquises et memorisees dans un analyseur. Tout d'abord synchrones, les cultures sont de plus en plus desynchronisees par ajout d'une dose croissante de digitaliques. Pour obtenir un parametre de desynchronisme independant des modifications du rythme induites par la drogue, les images sont traitees globalement, et nous avons exclu toute intervention manuelle de delimitation de zones. De meme, aucune hypothese restrictive n'a ete appliquee aux cellules individuellement (forme, nombre, etc). Les sequences ont ete dans un premier temps traitees par une methode classique de correlation croisee puis par des methodes originales faisant appel aux proprietes statistiques des fonctions de repartition des luminances, calculees a partir d'images derivees temporellement (adaptation de la methode de h. Rix, laboratoire i3s, nice sophia antipolis). Dans ce dernier cas, les resultats du traitement sont presentes sous forme d'images parametriques 3d, facilitant leur interpretation. Quelle que soit la methode employee, les resultats obtenus apres traitement par les differentes methodes sont compares en termes de sensibilite de detection du desynchronisme et de rapidite d'obtention, le but final etant de mettre au point un dispositif de mesure simple et rapide des effets dromotropes d'une drogue cardioactive, a des fins de screening pharmacologique (courbes dose - reponse) en utilisant le modele de cellules en culture en contraction spontanee.
APA, Harvard, Vancouver, ISO, and other styles
24

Ziadi, Adel. "Analyse d'image visibles et proche infrarouges : contributions à l'évaluation non-destructive du persillage dans la viande du boeuf." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28158/28158.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Receveur, Pascal. "Appui pharmaceutique et renforcement du potentiel d'une unité de production d'injectables dans un pays émergent : la Syrie." Bordeaux 2, 1999. http://www.theses.fr/1999BOR2P036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Clerk-Lamalice, Julien. "Étude de l'incidence des coïncidences triples simulées et mesurées à partir de systèmes TEP pixélisés sur les critères de qualité d'image." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6029.

Full text
Abstract:
Résumé : En tomographie d'émission par positrons (TEP), les données sont enregistrées par la détection de paires de photons de haute énergie (511~keV) en coïncidence. Or, dans un système de détection pixélisé, comme celui des scanners LabPET, la diffusion Compton dans les cristaux voisins entraîne la détection fréquente d'événements multiples, présentement rejetés dans le processus de reconstruction des images. Ces événements multiples peuvent augmenter l'efficacité de détection du scanner de façon significative, mais il reste à démontrer que l'inclusion de ces coïncidences peut améliorer la sensibilité sans affecter les critères de qualité des images, tels que la résolution spatiale et le contraste. Le but du projet est de démontrer l'influence de l'inclusion de ces événements dans le processus de reconstruction d'images. Les méthodes à critères fixes seront utilisées pour sélectionner les coïncidences triple obtenues à partir de données simulées à l’aide du logiciel de simulation GATE (« Geant4 Application for Tomographic Emission ») et de mesures réelles effectuées sur les scanners LabPET. // Abstract : In positron emission tomography, data are acquired by detecting pairs of high energy photons (511 keV) in coincidence. Thus, in a highly pixelated system such as the LabPET scanner, Compton diffusion in neighboring crystals can trigger the detection of multiple events (multiple coincidences) which are currently rejected from the reconstruction process. These multiple events can increase significantly the scanner’s detection efficiency, but it remains to be demonstrated that they can be used to increase sensitivity in the images without decreasing image quality criteria, such as the spatial resolution and contrast. The goal of this work is to demonstrate the influence of including these events in the image reconstruction process. Fixed criteria methods were used to select triple coincidences obtained from simulated data from the GATE (Geant4 Application for Tomography Emission) software and real measurements from the LabPET scanner.
APA, Harvard, Vancouver, ISO, and other styles
27

Harouna, Seybou Aboubacar. "Analyse d'images couleurs pour le contrôle qualité non destructif." Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2282/document.

Full text
Abstract:
La couleur est un critère important dans de nombreux secteurs d'activité pour identifier, comparer ou encore contrôler la qualité de produits. Cette tâche est souvent assumée par un opérateur humain qui effectue un contrôle visuel. Malheureusement la subjectivité de celui-ci rend ces contrôles peu fiables ou répétables. Pour contourner ces limitations, l'utilisation d'une caméra RGB permet d'acquérir et d'extraire des propriétés photométriques. Cette solution est facile à mettre en place et offre une rapidité de contrôle. Cependant, elle est sensible au phénomène de métamérisme. La mesure de réflectance spectrale est alors la solution la plus appropriée pour s'assurer de la conformité colorimétrique entre des échantillons et une référence. Ainsi dans l'imprimerie, des spectrophotomètres sont utilisés pour mesurer des patchs uniformes imprimés sur une bande latérale. Pour contrôler l'ensemble d'une surface imprimée, des caméras multi-spectrales sont utilisées pour estimer la réflectance de chaque pixel. Cependant, elles sont couteuses comparées aux caméras conventionnelles. Dans ces travaux de recherche, nous étudions l'utilisation d'une caméra RGB pour l'estimation de la réflectance dans le cadre de l'imprimerie. Nous proposons une description spectrale complète de la chaîne de reproduction pour réduire le nombre de mesures dans les phases d'apprentissage et pour compenser les limitations de l'acquisition. Notre première contribution concerne la prise en compte des limitations colorimétriques lors de la caractérisation spectrale d'une caméra. La deuxième contribution est l'exploitation du modèle spectrale de l'imprimante dans les méthodes d'estimation de réflectance
Color is a major criterion for many sectors to identify, to compare or simply to control the quality of products. This task is generally assumed by a human operator who performs a visual inspection. Unfortunately, this method is unreliable and not repeatable due to the subjectivity of the operator. To avoid these limitations, a RGB camera can be used to capture and extract the photometric properties. This method is simple to deploy and permits a high speed control. However, it's very sensitive to the metamerism effects. Therefore, the reflectance measurement is the more reliable solution to ensure the conformity between samples and a reference. Thus in printing industry, spectrophotometers are used to measure uniform color patches printed on a lateral band. For a control of the entire printed surface, multispectral cameras are used to estimate the reflectance of each pixel. However, they are very expensive compared to conventional cameras. In this thesis, we study the use of an RGB camera for the spectral reflectance estimation in the context of printing. We propose a complete spectral description of the reproduction chain to reduce the number of measurements in the training stages and to compensate for the acquisition limitations. Our first main contribution concerns the consideration of the colorimetric limitations in the spectral characterization of a camera. The second main contribution is the exploitation of the spectral printer model in the reflectance estimation methods
APA, Harvard, Vancouver, ISO, and other styles
28

Guennebaud, Gaël. "Algorithmes pour le rendu temps-réel de haute qualité des géométries basées points." Toulouse 3, 2005. http://www.theses.fr/2005TOU30226.

Full text
Abstract:
Dans le cadre de la synthèse d'image temps-réel, cette thèse explore l'utilisation des points comme primitive de base pour le rendu. Pour cela nous proposons un pipe-line de rendu des géométries basées points complet ayant la particularité de maintenir une très haute qualité de la visualisation que ce soit en cas de fort sur-échantillonnage, ou au contraire en cas de fort sous-échantillonnage. Nous proposons à la fois une implantation efficace sur GPU de l'algorithme de splatting ainsi qu'une méthode appelée deferred splatting dont le principe est de retarder au maximum les opérations de filtrage afin de ne réaliser celles-ci que sur les points réellement visibles. Finalement, d'une manière similaire aux surfaces de subdivisions pour les maillages polygonaux, nous proposons un algorithme complet de raffinement itératif capable de reconstruire dynamiquement une surface lisse à partir d'un nuage de points irrégulier et/ou sous-échantillonné
In the context of real-time image synthesis, this thesis investigate the use of points as a display primitve. We propose a complete rendering pipeline of point-based geometries which has the particularity to maintain a very high rendering quality both in case of under-sampled or over-sampled models while maintaining real-time performances. To reach these goals, we present both an adaptation of the surface splatting algorithm to modern graphics cards, and a new technique called deferred splatting which defers filtering operations in order to perform them on visible points only. Finally, in similar fashion to subdivision surfaces for polygonal meshes, we proposed an interpolatory refinement framework allowing to dynamically reconstruct a smooth surface from a scattered and/or under-sampled point based model
APA, Harvard, Vancouver, ISO, and other styles
29

Bourgeois, Marc. "Correction des mouvements intra-image en imagerie d'activation cérébrale par résonance magnétique." Lyon 1, 1999. http://www.theses.fr/1999LYO10143.

Full text
Abstract:
L'exploration par resonance magnetique nucleaire de l'activite du cortex cerebral humain a connu des developpements importants depuis le debut des annees 1990. Elle s'appuie sur la detection de faibles variations du signal rmn (1-2%) liees aux activations corticales. L'identification des reponses fonctionnelles, est donc tres sensibles aux mouvements du sujet. L'analyse indique que des mouvements, memes de tres faibles amplitudes (0,5 degre pour les rotations et 0,2 pixel pour les translations), conduisent a des distorsions des cartes d'activation. L'objectif de cette these est de restaurer les donnees affectees par des mouvements solides intra-image du sujet. Un algorithme de correction des effets de mouvement a ete developpe pour traiter les signaux mesures selon un echantillonnage cartesien dans l'espace de fourier. Les mouvements (rotations et translations) aleatoires conduisent a un echantillonnage pseudo aleatoire du signal et modifient la phase de celui-ci. Ceci se traduit par des artefacts superieurs a 2% lorsqu'on applique directement la transformation de fourier rapide pour reconstruire l'image. La methode decrite pour estimer les parametres de mouvement assure une precision d'estimation de 0,05 degre et 0,05 pixel. L'etude indique que les images ne peuvent pas etre reconstruites par des methodes d'interpolation classiques. Deux methodes de reconstruction ont ete testees : l'algorithme du gridding et un estimateur bayesien. Les resultats obtenus ont permis de retenir l'estimation bayesienne qui reduit les artefacts a un niveau proche de celui du bruit de l'acquisition. La methode proposee permet la correction absolue des translations et la correction relative des rotations intra-image. Son application a des examens d'activation cerebrale accroit nettement la precision des cartes d'activation fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
30

Atif, Jamal. "Recalage non-rigide multimodal des images radiologiques par information mutuelle quadratique normalisée." Paris 11, 2004. http://www.theses.fr/2004PA112337.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Charbonneau, Marie. "Approche méthodologique et comparative des critères de qualité d'image, de perception et d'exploitabilité opérationnelle : application aux systèmes d'aide à la vision nocturne en aéronautique." Thesis, Bordeaux 2, 2010. http://www.theses.fr/2010BOR21713/document.

Full text
Abstract:
Les méthodes pour évaluer les systèmes de vision nocturne présentent un certain manque de techniques permettant d’évaluer ces dispositifs avec l’humain dans la boucle. Pour mettre en place ce type de méthodologies, les performances des sujets ont été évaluées dans différentes méthodologies, afin de comparer différents types de systèmes de vision nocturne. L’objectif final est d’améliorer la prédictabilité des évaluations de laboratoire réalisées pour mieux préparer les essais en vol. Une première série d’expérimentation traite de la mise en place de méthodologies sensorielles par l’amélioration de deux méthodes classiques : la mesure de l’acuité visuelle et l’évaluation de la sensibilité au contraste. Les résultats ont permis de discuter du rôle du conflit accommodation/convergence dans les systèmes de type 2, avec les tubes IL déplacés sur le coté. Une différence de sensibilité au contraste entre les systèmes de type 1 et 2 semble se confirmer. Une seconde série d’expérimentation propose une nouvelle approche méthodologique cognitive avec le développement de deux nouvelles méthodes appelées « simulation » et « stimulation ». Dans la première étude, la détection est influencée par l’expérience des sujets, le niveau de nuit et la fonction de sensibilité au contraste tandis que la prise de décision ne semble être dépendante que de l’expérience et du contraste. Avec des systèmes de vision nocturne fonctionnels, la détection et la prise de décision sont dépendantes du niveau de nuit. La dernière partie discute des modifications apportées aux méthodes sensorielles existantes ainsi que des nouvelles méthodes cognitives développées. Les apports méthodologiques sont également présentés, ainsi que d’autres approches expérimentales à mettre en place. En conclusion, les expérimentations menées « avec l’homme dans la boucle » ont permis d’apporter de nouvelles méthodes pour évaluer les dispositifs de vision nocturne. Il apparait aussi que, selon le type d’expérimentation à mener, il est essentiel de bien choisir la population sélectionnée, en termes de critère de performances visuelles, mais aussi d’expérience opérationnelle
Methods to evaluate night-vision devices present an evident lack of technique preventing the testing of these devices with the operators themselves. To set up these methodology types and establish a link between evaluations in laboratory and flight tests, subjects’ performances were measured thanks to various methodologies in order to compare different night-vision systems. The final aim is to improve the predictability of laboratory evaluation to better prepare flight tests. A first series of experiment deals with the implementation of sensory methodologies thanks to the improvement of two classic methods: visual acuity measure and contrast sensitivity evaluation. The results enabled us to discuss the role of accommodation/convergence conflict in the type 2 systems, with tubes IT moved at each side of the head. A difference in contrast sensitivity between type 1 and type 2 systems seems to be confirmed. A second series of experiment proposes a new cognitive methodological approach with the development of two new methods called "simulation" and "stimulation". In the first study, the detection is influenced by the subject’s experience, night level and contrast sensitivity function, whereas decision-making seems only to be dependent on experience and contrast. With functional night-vision systems, detection and decision-making are dependent on night level. The last part discusses the modifications made to existing sensory methods and to the new developed cognitive methods. The methodological contributions are also presented, as well as other experimental approaches to set up. In conclusion, the experiments led including humans “in the buckle” brought new methods to evaluate night-vision devices. It appears as well that according to the type of experiment led, it is essential/very important to properly select the chosen population, as regards to the visual performance criteria, but also as regards to the subject’s operational experiment
APA, Harvard, Vancouver, ISO, and other styles
32

HOCEINI, SAID. "Techniques d'Apprentissage par Renforcement pour le Routage Adaptatif dans les Réseaux de Télécommunication à Trafic Irrégulie." Phd thesis, Université Paris XII Val de Marne, 2004. http://tel.archives-ouvertes.fr/tel-00010430.

Full text
Abstract:
L'objectif de ce travail de thèse est de proposer des approches algorithmiques permettant de traiter la problématique du routage adaptatif (RA) dans un réseau de communication à trafic irrégulier. L'analyse des algorithmes existants nous a conduit à retenir comme base de travail l'algorithme Q-Routing (QR); celui-ci s'appuie sur la technique d'apprentissage par renforcement basée sur les modèles de Markov. L'efficacité de ce type de routage dépend fortement des informations sur la charge et la nature du trafic sur le réseau. Ces dernières doivent être à la fois, suffisantes, pertinentes et reflétant la charge réelle du réseau lors de la phase de prise de décision. Pour remédier aux inconvénients des techniques utilisant le QR, nous avons proposé deux algorithmes de RA. Le premier, appelé Q-Neural Routing, s'appuie sur un modèle neuronal stochastique pour estimer et mettre à jour les paramètres nécessaires au RA. Afin d'accélérer le temps de convergence, une deuxième approche est proposée : K-Shortest path Q-Routing. Elle est basée sur la technique de routage multi chemin combiné avec l'algorithme QR, l'espace d'exploration étant réduit aux k meilleurs chemins. Les deux algorithmes proposés sont validés et comparés aux approches traditionnelles en utilisant la plateforme de simulation OPNET, leur efficacité au niveau du RA est mise particulièrement en évidence. En effet, ceux-ci permettent une meilleure prise en compte de l'état du réseau contrairement aux approches classiques.
APA, Harvard, Vancouver, ISO, and other styles
33

Zaenker, Pierre. "Effets de l'entraînement à haute intensité associé au renforcement musculaire sur les capacités physiques et la qualité de vie chez les patients atteints de sclérose en plaques." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAJ047/document.

Full text
Abstract:
Après avoir été contre-indiquée, l’activité physique prend une place de plus en plus importante dans la prise en charge de la sclérose en plaques (SEP). L’entraînement à intensité faible ou modérée est largement documenté, contrairement à la haute intensité. Ce travail s’est intéressé aux effets de l’entraînement en intervalle à haute intensité combiné au renforcement musculaire durant 12 semaines chez 26 patients atteints de SEP. Nos résultats indiquent que la consommation pic d’oxygène, la puissance maximale tolérée, la force isocinétique des quadriceps et ischio-jambiers, ainsi que la qualité de vie sont améliorées. Les femmes présentent des améliorations plus importantes et plus nombreuses que les hommes, cependant le niveau de handicap ne semble pas limiter les améliorations. Notre travail a permis de démontrer que l’entraînement en intervalle à haute intensité combiné au renforcement musculaire est bien toléré et permet des améliorations des capacités physiques et de la qualité de vie
After being contraindicated, physical activity take an increasingly important place in the management of multiple sclerosis (MS). The training at mild to moderate intensity is widely documented, contrary to the high intensity training. This work has focused on the effects of high intensity interval training combined with resistance training during 12 weeks in 26 MS patients. Our results show that peak oxygen consumption, maximum tolerated power, isokinetic muscle strength in both quadriceps and hamstrings and quality of life are improved. Women show more important and more numerous improvements than men, however, the disability level does not seem to limit improvements. Our work has demonstrated that high intensity interval training combined with resistance training is well tolerated and allows physical capacities and quality of life improvements
APA, Harvard, Vancouver, ISO, and other styles
34

Lamberton, Franck. "Correction des distorsions en imagerie fonctionnelle cérébrale par résonance magnétique nucléaire : application à la séquence d'imagerie ultra-rapide EPI." Caen, 2003. http://www.theses.fr/2003CAEN2002.

Full text
Abstract:
L'imagerie fonctionnelle par résonance magnétique permet de localiser l'activité cérébrale, en détectant les variations d'oxygénation du sang. Cette imagerie a été rendue possible grâce à la mise en œuvre d'une technique d'acquisition ultra-rapide EPI. Néanmoins, cette rapidité n'est possible qu'au détriment d'une faible qualité des images, dont des déformations géométriques. Après un état de l'art sur cette modalité d'imagerie et des différents artefacts présents dans les images, ce mémoire présente une nouvelle technique de cartographie du champ magnétique qui prend en compte son évolution dans le temps. L'information ainsi recueillie ne nécessite qu'une acquisition supplémentaire en début d'expérience, et permet une correction optimale de chaque image acquise, en fonction des perturbations magnétiques associées. Après discussion des biais de mesure, l'efficacité de la méthode est démontrée par rapport aux autres techniques existantes, puis validée à l'aide d'une série d'expériences.
APA, Harvard, Vancouver, ISO, and other styles
35

Zerman, Emin. "Evaluation et analyse de la qualité vidéo à haute gamme dynamique." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0003.

Full text
Abstract:
Au cours de la dernière décennie, la technologie de l’image et de la vidéo à haute gamme dynamique (High dynamic range - HDR) a attiré beaucoup d’attention, en particulier dans la communauté multimédia. Les progrés technologiques récents ont facilité l’acquisition, la compression et la reproduction du contenu HDR, ce qui a mené à la commercialisation des écrans HDR et à la popularisation du contenu HDR. Dans ce contexte, la mesure de la qualité du contenu HDR joue un rôle fondamental dans l’amélioration de la chaîne de distribution du contenu ainsi que des opérations qui la composent, telles que la compression et l’affichage. Cependant, l’évaluation de la qualité visuelle HDR présente de nouveaux défis par rapport au contenu à gamme dynamique standard (Standard dynamic range -SDR). Le premier défi concerne les nouvelles conditions introduites par la reproduction du contenu HDR, par ex. l’augmentation de la luminosité et du contraste. Même si une reproduction exacte de la luminance d’une scène n’est pas nécessaire pour la plupart des cas pratiques, une estimation précise de la luminance émise est cependant nécessaire pour les mesures d’évaluation objectives de la qualité HDR. Afin de comprendre les effets du rendu d’affichage sur la perception de la qualité, un algorithme permettant de reproduire très précisement une image HDR a été développé et une expérience subjective a été menée pour analyser l’impact de différents rendus sur l’évaluation subjective et objective de la qualité HDR. En outre, afin de comprendre l’impact de la couleur avec la luminosité accrue des écrans HDR, les effets des différents espaces de couleurs sur les performances de compression vidéo HDR ont également été analysés dans une autre étude subjective. Un autre défi consiste à estimer objectivement la qualité du contenu HDR, en utilisant des ordinateurs et des algorithmes. Afin de relever ce défi, la thèse procède à l’évaluation des performances des métriques de qualité d’image HDR avec référence (Full reference-FR). Les images HDR ont une plus grande plage de luminosité et des valeurs de contraste plus élevées. Etant donné que la plupart des métriques de qualité d’image sont développées pour les images SDR, elles doivent être adaptées afin d’estimer la qualité des images HDR. Différentes méthodes d’adaptation ont été utilisées pour les mesures SDR, et elles ont été comparées avec les métriques de qualité d’image existantes développées exclusivement pour les images HDR. De plus, nous proposons une nouvelle méthode d’évaluation des métriques objectives basée sur une nouvelle approche de classification. Enfin, nous comparons les scores de qualité subjectifs acquis en utilisant différentes méthodologies de test subjectives. L’évaluation subjective de la qualité est considérée comme le moyen le plus efficace et le plus fiable d’obtenir des scores de qualité «vérité-terrain» pour les stimuli sélectionnés, et les scores moyens d’opinion (Mean opinion scores-MOS) obtenus sont les valeurs auxquelles les métriques objectives sont entraînées pour correspondre. En fait, de fortes divergences peuvent facilement être rencontrés lorsque différentes bases de données de qualité multimédia sont considérées. Afin de comprendre la relation entre les valeurs de qualité acquises à l’aide de différentes méthodologies, la relation entre les valeurs MOS et les résultats des comparaisons par paires rééchellonés (Pairwise comparisons - PC) a été comparée. A cette fin, une série d’expériences ont été menées entre les méthodologies double stimulus impairment scale (DSIS) et des comparaisons par paires. Nous proposons d’inclure des comparaisons inter-contenu dans les expériences PC afin d’améliorer les performances de rééchelonnement et de réduire la variance inter-contenu ainsi que les intervalles de confiance. Les scores de PC rééchellonés peuvent également être utilisés pour des scénarios subjectifs d’évaluation de la qualité multimédia autres que le HDR
In the last decade, high dynamic range (HDR) image and video technology gained a lot of attention, especially within the multimedia community. Recent technological advancements made the acquisition, compression, and reproduction of HDR content easier, and that led to the commercialization of HDR displays and popularization of HDR content. In this context, measuring the quality of HDR content plays a fundamental role in improving the content distribution chain as well as individual parts of it, such as compression and display. However, HDR visual quality assessment presents new challenges with respect to the standard dynamic range (SDR) case. The first challenge is the new conditions introduced by the reproduction of HDR content, e.g. the increase in brightness and contrast. Even though accurate reproduction is not necessary for most of the practical cases, accurate estimation of the emitted luminance is necessary for the objective HDR quality assessment metrics. In order to understand the effects of display rendering on the quality perception, an accurate HDR frame reproduction algorithm was developed, and a subjective experiment was conducted to analyze the impact of different display renderings on subjective and objective HDR quality evaluation. Additionally, in order to understand the impact of color with the increased brightness of the HDR displays, the effects of different color spaces on the HDR video compression performance were also analyzed in another subjective study. Another challenge is to estimate the quality of HDR content objectively, using computers and algorithms. In order to address this challenge, the thesis proceeds with the performance evaluation of full-reference (FR) HDR image quality metrics. HDR images have a larger brightness range and higher contrast values. Since most of the image quality metrics are developed for SDR images, they need to be adapted in order to estimate the quality of HDR images. Different adaptation methods were used for SDR metrics, and they were compared with the existing image quality metrics developed exclusively for HDR images. Moreover, we propose a new method for the evaluation of metric discriminability based ona novel classification approach. Motivated by the need to fuse several different quality databases, in the third part of the thesis, we compare subjective quality scores acquired by using different subjective test methodologies. Subjective quality assessment is regarded as the most effective and reliable way of obtaining “ground-truth” quality scores for the selected stimuli, and the obtained mean opinion scores (MOS) are the values to which generally objective metrics are trained to match. In fact, strong discrepancies can easily be notified across databases when different multimedia quality databases are considered. In order to understand the relationship between the quality values acquired using different methodologies, the relationship between MOS values and pairwise comparisons (PC) scaling results were compared. For this purpose, a series of experiments were conducted using double stimulus impairment scale (DSIS) and pairwise comparisons subjective methodologies. We propose to include cross-content comparisons in the PC experiments in order to improve scaling performance and reduce cross-content variance as well as confidence intervals. The scaled PC scores can also be used for subjective multimedia quality assessment scenarios other than HDR
APA, Harvard, Vancouver, ISO, and other styles
36

Beghdadi, Azeddine. "Etude statistique de la morphologie des composés métalliques granulaires par analyse d'image." Paris 6, 1986. http://www.theses.fr/1986PA066281.

Full text
Abstract:
Présentation d'un modèle de traitement d'image adapte à des clicheé de microscopie électronique de couches minces de métaux frittés et de cermets ; ce traitement permet un seuillage de l'image de manière non ambiguë, que l'histogramme des niveaux de gris soit bimodal ou unimodal. La validité du traitement est testée à partir de mesures physiques sur des couches réelles. Etude statistique de la morphologie de l'image binarisée obtenue. Application à des couches d'or granulaire préparées par évaporation thermique sous ultra-vide ; les résultats confirment le caractère aléatoire de la nucléation des couches d'or dans les conditions expérimentales de l'étude.
APA, Harvard, Vancouver, ISO, and other styles
37

Ho, Dinh Khanh. "Gestion des ressources et de l’énergie orientée qualité de service pour les systèmes robotiques mobiles autonomes." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4000.

Full text
Abstract:
Les systèmes robotiques mobiles autonomes deviennent de plus en plus complexes avec l’intégration de composants de capteurs et d’actionneurs et de fonctionnalités avancées pour effectuer les missions réelles. Pour ces systèmes techniques, les exigences sont divisées en deux catégories : les exigences fonctionnelles et les exigences non-fonctionnelles. Alors que les exigences fonctionnelles représentent ce que le robot doit faire pour accomplir la mission, les exigences non-fonctionnelles représentent la façon dont le robot exécute la mission. Ainsi, la qualité de service et l’efficacité énergétique d’une mission robotique sont classées dans cette catégorie. L’autonomie de ces systèmes est pleinement atteinte lorsque les exigences fonctionnelles et non-fonctionnelles sont garanties sans aucune intervention humaine ni aucun contrôle externe. Cependant, ces systèmes mobiles sont naturellement confrontés à des contraintes de disponibilité des ressources et de capacité énergétique, notamment dans le cadre de mission à longue durée, ces contraintes deviennent plus critiques. De plus, la performance de ces systèmes est également influencée par des conditions environnementales inattendues et non structurées dans lesquelles ils interagissent. La gestion des ressources et de l’énergie en cours de mission est donc un défi pour les robots mobiles autonomes afin de garantir les objectifs de performance souhaités tout en respectant les contraintes. Dans ce contexte, la capacité du système robotique à prendre conscience de ses propres comportements internes et de son environnement physique et à s’adapter à ces circonstances dynamiques devient importante.Cette thèse porte sur la qualité de service et l’efficacité énergétique des systèmes robotiques mobiles et propose une gestion hiérarchique en cours d’exécution afin de garantir ces objectifs non-fonctionnels de chaque mission robotique. Au niveau de la gestion locale de chaque mission, un MISSION MANAGER utilise un mécanisme de prise de décision fondé sur l’apprentissage par renforcement pour reconfigurer automatiquement certains paramètres clés propres à la mission afin de minimiser le niveau de violation des objectifs de performance et des objectifs énergétiques requis. Au niveau de la gestion globale de l’ensemble du système, un MULTI-MISSION MANAGER s’appuie sur des règles de prise de décision et des techniques de raisonnement par cas pour suivre les ressources du système et les réponses des MISSION MANAGERs afin de décider de réallouer le budget énergétique, de régler la qualité du service et de déclencher l’apprentissage en ligne pour chaque mission robotique. La méthodologie proposée a été prototypée et validée avec succès dans un environnement de simulation et le cadre de gestion est également intégré dans notre système robotique mobile réel basé sur une base mobile de Pioneer-3DX équipée d’une plate-forme embarquée de NVIDIA Jetson Xavier
Mobile robotic systems are becoming more and more complex with the integration of advanced sensing and acting components and functionalities to perform the real required missions. For these technical systems, the requirements are divided into two categories: functional and non-functional requirements. While functional requirements represent what the robot must do to accomplish the mission, non-functional requirements represent how the robot performs the mission. Thus, the quality of service and energy efficiency of a robotic mission are classified in this category. The autonomy of these systems is fully achieved when both functional and non-functional requirements are guaranteed without any human intervention or any external control. However, these mobile systems are naturally confronted with resource availability and energy capacity constraints, particularly in the context of long-term missions, these constraints become more critical. In addition, the performance of these systems is also influenced by unexpected and unstructured environmental conditions in which they interact. The management of resources and energy during operation is therefore a challenge for autonomous mobile robots in order to guarantee the desired performance objectives while respecting constraints. In this context, the ability of the robotic system to become aware of its own internal behaviors and physical environment and to adapt to these dynamic circumstances becomes important.This thesis focuses on the quality of service and energy efficiency of mobile robotic systems and proposes a hierarchical run-time management in order to guarantee these non-functional objectives of each robotic mission. At the local management level of each robotic mission, a Mission Manager employs a reinforcement learning-based decision-making mechanism to automatically reconfigure certain key mission-specific parameters to minimize the level of violation of required performance and energy objectives. At the global management level of the whole system, a Multi-Mission Manager leveraged rule-based decision-making and case-based reasoning techniques monitors the system's resources and the responses of Mission Managers in order to decide to reallocate the energy budget, regulate the quality of service and trigger the online learning for each robotic mission.The proposed methodology has been successfully prototyped and validated in a simulation environment and the run-time management framework is also integrated into our real mobile robotic system based on a Pioneer-3DX mobile base equipped with an embedded NVIDIA Jetson Xavier platform
APA, Harvard, Vancouver, ISO, and other styles
38

Boudjenouia, Fouad. "Restauration d’images avec critères orientés qualité." Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2031/document.

Full text
Abstract:
Cette thèse concerne la restauration aveugle d’images (formulée comme un problème inverse mal-posé et mal-conditionné), en considérant particulièrement les systèmes SIMO. Dans un premier temps une technique d’identification aveugle de ce système où l’ordre du canal est inconnu (surestimé) est introduite. Nous introduisons d’abord une version simplifiée à coût réduit SCR de la méthode des relations croisées (CR). Ensuite, une version robuste R-SCR basée sur la recherche d’une solution parcimonieuse minimisant la fonction de coût CR est proposée. La restauration d’image est ensuite assurée par une nouvelle approche inspirée des techniques de décodage des signaux 1D et étendue ici aux cas de la restauration d’images en se basant sur une recherche arborescente efficace (algorithme ‘Stack’). Plusieurs améliorations de la méthode ‘Stack’ ont été introduites afin de réduire sa complexité et d’améliorer la qualité de restauration lorsque les images sont fortement bruitées. Ceci en utilisant une technique de régularisation et une approche d’optimisation all-at-once basée sur la descente du gradient qui permet de raffiner l’image estimée et mieux converger vers la solution optimale. Ensuite, les mesures de la qualité d’images sont utilisées comme fonctions de coûts (intégrées dans le critère global) et ce afin d’étudier leur potentiel pour améliorer les performances de restauration. Dans le contexte où l’image d’intérêt est corrompue par d’autres images interférentes, sa restauration nécessite le recours aux techniques de séparation aveugle de sources. Pour cela, une étude comparative de certaines techniques de séparation basées sur la propriété de décorrélation au second ordre et la parcimonie est réalisée
This thesis concerns the blind restoration of images (formulated as an ill-posed and illconditioned inverse problem), considering a SIMO system. Thus, a blind system identification technique in which the order of the channel is unknown (overestimated) is introduced. Firstly, a simplified version at reduced cost SCR of the cross relation (CR) method is introduced. Secondly, a robust version R-SCR based on the search for a sparse solution minimizing the CR cost function is proposed. Image restoration is then achieved by a new approach (inspired from 1D signal decoding techniques and extended here to the case of 2D images) based on an efficient tree search (Stack algorithm). Several improvements to the ‘Stack’ method have been introduced in order to reduce its complexity and to improve the restoration quality when the images are noisy. This is done using a regularization technique and an all-at-once optimization approach based on the gradient descent which refines the estimated image and improves the algorithm’s convergence towards the optimal solution. Then, image quality measurements are used as cost functions (integrated in the global criterion), in order to study their potential for improving restoration performance. In the context where the image of interest is corrupted by other interfering images, its restoration requires the use of blind sources separation techniques. In this sense, a comparative study of some separation techniques based on the property of second-order decorrelation and sparsity is performed
APA, Harvard, Vancouver, ISO, and other styles
39

Youssef, Marlène. "Ecole catholique primaire en quête de navigation professionnelle : entre le pilotage des compétences et le renforcement stratégique de la qualité rénover le système de gestion et de mesure des performances." Phd thesis, Université de Haute Alsace - Mulhouse, 2010. http://tel.archives-ouvertes.fr/tel-00623177.

Full text
Abstract:
Cette thèse permet de porter l'attention à quelques caractéristiques fondamentales de l'école catholique et de chercher dans quelle mesure sa navigation professionnelle permettrait de tirer la garantie de sa capacité de rénover le système de gestion et de mesure des performances, entre son pilotage des compétences et son renforcement stratégique de la qualité. Dans l'histoire de l'école catholique, plusieurs chercheurs ont présenté l'importance des défis qui l'interpellent et qui l'invitent à trouver des réponses adaptées non seulement au niveau des contenus des méthodes didactiques (choix de la pédagogie adaptée aux besoins des élèves) mais aussi au niveau du travail administratif. Dans la recherche, nous avons donc pris en considération ces réalités qui incitent l'école catholique d'une part à faire une adaptation de ses structures et de son mode d'agir, pour continuer à être une présence efficace et incisive dans le secteur éducatif tout en vivant sa vocation, et d'autre part. à mesurer sa performance globale et piloter ses décisions de façon professionnelle. Dans ce sens, nous avons innové " MAR_BEL S.M.D " (un système de gestion et de mesure de la performance globale d'une école catholique) pour proposer des structures de modélisation d'une école apprenante, qualifiante et en quête de professionnalisation d'une part, et d'autre part pour améliorer ses décisions stratégiques. En effet, ce système de modélisation et de décisions a permis à travers une enquête de vérifier les liens entre des concepts théoriques et des réalités professionnelles vécues dans un contexte complexe sur le territoire libanais.
APA, Harvard, Vancouver, ISO, and other styles
40

Cremer, Sandra. "Adapting iris feature extraction and matching to the local and global quality of iris image." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0026.

Full text
Abstract:
La reconnaissance d'iris est un des systèmes biométriques les plus fiables et les plus précis. Cependant sa robustesse aux dégradations des images d'entrées est limitée. Généralement les systèmes basés sur l'iris peuvent être décomposés en quatre étapes : segmentation, normalisation, extraction de caractéristiques et comparaison. Des dégradations de la qualité des images d'entrées peuvent avoir des répercussions sur chacune de ses étapes. Elles compliquent notamment la segmentation, ce qui peut engendrer des images normalisées contenant des distorsions ou des artefacts non détectés. De plus, la quantité d'information disponible pour la comparaison peut être réduite. Dans cette thèse, nous proposons des solutions pour améliorer la robustesse des étapes d'extraction de caractéristiques et de comparaison à la dégradation des images d'entrées. Nous travaillons avec deux algorithmes pour ces deux étapes, basés sur les convolutions avec des filtres de Gabor 2D, mais des processus de comparaison différents. L'objectif de la première partie de notre travail est de contrôler la qualité et la quantité d'information sélectionnée pour la comparaison dans les images d'iris normalisées. Dans ce but nous avons défini des mesures de qualité locale et globale qui mesurent la quantité d'occlusions et la richesse de la texture dans les images d'iris. Nous utilisons ces mesures pour déterminer la position et le nombre de régions à exploiter pour l'extraction. Dans une seconde partie de ce travail, nous étudions le lien entre la qualité des images et les performances de reconnaissance des deux algorithmes de reconnaissance décrits ci-dessus. Nous montrons que le second est plus robuste aux images dégradées contenant des artefacts, des distorsions ou une texture pauvre. Enfin, nous proposons un système complet pour la reconnaissance d'iris, qui combine l'utilisation de nos mesures de qualités locale et globale pour optimiser les performances des algorithmes d'extraction de caractéristiques et de comparaison
Iris recognition has become one of the most reliable and accurate biometric systems available. However its robustness to degradations of the input images is limited. Generally iris based systems can be cut into four steps : segmentation, normalization, feature extraction and matching. Degradations of the input image quality can have repercussions on all of these steps. For instance, they make the segmentation more difficult which can result in normalized iris images that contain distortion or undetected artefacts. Moreover the amount of information available for matching can be reduced. In this thesis we propose methods to improve the robustness of the feature extraction and matching steps to degraded input images. We work with two algorithms for these two steps. They are both based on convolution with 2D Gabor filters but use different techniques for matching. The first part of our work is aimed at controlling the quality and quantity of information selected in the normalized iris images for matching. To this end we defined local and global quality metrics that measure the amount of occlusion and the richness of texture in iris images. We use these measures to determine the position and the number of regions to exploit for feature extraction and matching. In the second part, we study the link between image quality and the performance of the two recognition algoritms just described. We show that the second one is more robust to degraded images that contain artefacts, distortion or a poor iris texture. Finally, we propose a complete system for iris recognition that combines the use of our local and global quality metrics to optimize recognition performance
APA, Harvard, Vancouver, ISO, and other styles
41

Odille, Freddy. "Imagerie adaptative en IRM : utilisation des informations de mouvements physiologiques pour l’optimisation des processus d’acquisition et de reconstruction." Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10107/document.

Full text
Abstract:
L’imagerie par résonance magnétique (IRM) est une technique d’imagerie relativement lente. Les mouvements du patient, en particulier en imagerie cardiaque et abdominale, constituent un obstacle important, venant perturber le processus d’encodage spatial nécessaire à la réalisation d’une image. Ces mouvements induisent des dégradations de l’image, appelées artéfacts, qui prennent des formes complexes du fait que cet encodage est réalisé dans un espace inhabituel (espace hybride Fourier/sensibilités d’antennes). Les méthodes généralement utilisées (apnée du patient, synchronisation de l’acquisition avec l’électrocardiogramme) sont imparfaites et ne sont pas toujours applicables. A l’aide d’une plateforme spécialement développée pour l’acquisition et l’analyse des données physiologiques pendant l’examen IRM, nous proposons d’intégrer des informations de mouvement a priori, à différents niveaux des processus d’acquisition et de reconstruction, avec un intérêt particulier pour la correction des erreurs d’encodage spatial. Nous construisons un modèle prédictif permettant d’estimer les champs de déplacements élastiques dans le plan ou le volume imagé, à partir de combinaisons linéaires des signaux fournis par la plateforme. Puis nous définissons un cadre de reconstruction généralisé permettant d’inclure les données de déplacements prédites par le modèle, afin de reconstruire une image corrigée, minimisant ainsi les artéfacts de mouvement. Les hypothèses et conditions de validité sont analysées, et le modèle prédictif ainsi que les différentes méthodes de reconstruction proposées sont validés sur des données réelles, cardiaques et abdominales, de sujets sains
Magnetic resonance imaging (MRI) is a relatively slow imaging technique. In the context of cardiac and abdominal imaging, patient motion is a major impediment that disturbs the spatial encoding process needed to form an image. Motion results in image deteriorations, called artifacts. These artifacts can take complex forms as this encoding occurs in an unusual space (Fourier/coil sensitivity hybrid space). Generally the patient is asked for a breathhold in order to minimize the influence of respiration, and the acquisition is synchronized to the electrocardiogram in order to handle cardiac contraction. These methods are imperfect and not always applicable, and therefore alternative approaches are desirable. We propose to integrate prior knowledge in the acquisition and reconstruction processes, based on a specially designed platform, developed to acquire and analyze physiological data during the MRI examination. Various solutions are investigated to implement this adaptive imaging, with special care to the correction of motion induced spatial encoding errors. For that purpose, we build a predictive model that allows elastic displacement fields in the field of view to be predicted, from linear combinations of signals provided by the platform. Then we define a generalized reconstruction framework in which predicted displacement data are included, leading to the reconstruction of a motion-compensated image. The hypotheses are analyzed, and the predictive model, as well as the proposed reconstruction methods, are validated on real cardiac and abdominal data from healthy volunteers, in 2D and 3D free breathing scans
APA, Harvard, Vancouver, ISO, and other styles
42

Coudoux, François-Xavier. "Evaluation de la visibilité des effets de blocs dans les images codées par transformée : application à l'amélioration d'images." Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/a0a7cc38-609d-4d86-9c3a-a018590bc012.

Full text
Abstract:
Les méthodes de codage avec perte basées sur la Transformée en Cosinus Discrète constituent la base de la plupart des standards actuels de compression d'images numériques. Ce type de codage par Transformée nécessite une segmentation préalable de l'image en blocs de pixels disjoints. L'effet de blocs constitue le principal défaut de ce type de codage: les frontières entre blocs adjacents deviennent visibles pour des taux de compression élevés. Ce défaut est particulièrement gênant pour l'observateur, et affecte sévèrement la qualité visuelle de l'image reconstruite. Le but de notre étude est de proposer une méthode de détection locale des artefacts, ainsi qu'une mesure de leur importance visuelle. Cette mesure, qui prend en compte plusieurs propriétés du système visuel humain, caractérise la dégradation introduite dans l'image par la distorsion de blocs. Elle est utilisée afin d'établir un critère de qualité globale des images codées JPEG. Ce critère permet de quantifier la qualité des images reconstruites, en attribuant une note de qualité à l'image dégradée. Une application directe des résultats de la mesure des visibilités des effets de blocs concerne la détection et la correction de ces défauts à l'intérieur d'une image traitée par blocs. Nous présentons une méthode originale de réduction des effets de blocs; elle consiste en un filtrage local adaptatif à la visibilité des artefacts de blocs dans l'image. La correction apportée permet de réduire sensiblement les défauts les plus visibles, sans dégrader le reste de l'image. La méthode est validée dans le cas d'images fixes codées JPEG; son extension immédiate aux standards MPEG1 et MPEG2 de compression de séquences d'images reste possible, moyennant éventuellement la prise en compte des propriétés temporelles de la vision. Une implémentation matérielle est envisagée sous forme d'un circuit électronique, qui pourra être utilisé sur les terminaux de consultation multimédia afin d'améliorer la qualité visuelle de l'image avant affichage final.
APA, Harvard, Vancouver, ISO, and other styles
43

Liu, Zongyi. "Self-Adaptive Bandwidth Control for Balanced QoS and Energy Aware Optimization in Wireless Sensor Network." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0034/document.

Full text
Abstract:
Dans le domaine des réseaux de capteurs multimédias sans fil (WMSN), le flux fortement saturé augmente la probabilité de collision et de congestion dans la transmission de données, ce qui dégrade considérablement la performance de la qualité de service (QoS). La technique de déploiement multicanaux est souvent appliquée à la transmission en parallèle pour garantir la QoS. Cependant, comment faire le compromis entre l'exigence QoS et l'efficacité énergétique est un défi pour WMSN énergie-limité. L'analyse théorique de la couche MAC et de la structure de la couche PHY basée sur la norme IEEE 802.15.4, vise à étudier le modèle analytique cross-layer afin de mieux comprendre la relation entre les paramètres du réseau de capteurs et la performance, ouvrant ainsi la voie à de nouvelles améliorations. Recherche d'optimisation multi-canaux. Trouver un indicateur de performance efficace et concevoir une méthode de collecte ou d'estimation de performance efficace basée sur les métriques correspondantes, qui pourraient être utilisées comme entrée de paramètre du mécanisme d'affectation multicanaux. Le système de contrôle dynamique complet est conçu pour une tâche d'attribution multicanal basée sur des techniques d'intelligence de calcul léger et efficace. Nous présentons un mécanisme d'attribution multicouches à bande passante dynamique à fuzzy (MCDB_FLS). La bande passante proactive disponible dans la couche croisée est estimée comme paramètre pour le contrôle d'admission de déploiement multicanal. Une approche axée sur l'apprentissage par renforcement est proposée pour une prise de décision judicieuse dans la mission d'allocation multicanaux. En outre, le modèle de seuil de bande passante basé sur la logique floue fournit une optimisation dynamique sur le contrôle d'admission du système. Les simulations montrent que le MCDB_FLS fonctionne mieux que la référence sur les mesures de QoS et l'efficacité énergétique, réalise le compromis entre l'efficacité énergétique et l'amélioration de la QoS. Enfin, nous introduisons l'intégration de l'approche incrémentielle d'apprentissage automatique dans le mécanisme d'affectation multicanaux avec la Deep Q Network (DQMC). En outre, l'initialisation du poids par action est implémentée sur la base d'un classificateur d'apprentissage supervisé multi-classes avec une approche par empilement. DQMC améliorer la capacité d'auto-adaptatif et de contrôle intelligent pour apprendre le modèle de l'environnement différent de multi-tâches WMSNs
In the Wireless Multimedia Sensor Networks (WMSNs) field, highly saturated flow increases the probability of collision and congestion in data transmission which dramatically degrade the performance of Quality of Service (QoS). Multi-channels deployment technique is often applied to parallel transmission for QoS guarantee. However, how to make trade-off between QoS requirement and energy efficiency is a challenges to energy-constrained WMSNs. Theoretical analysis of MAC layer and PHY layer structure based on IEEE 802.15.4 standard, aim to study on the cross-layer analytical model in order to provide stronger understanding on the relationship between sensor network parameters and performance, pave the way for new enhancements in succedent multi-channel optimization research. Find effective performance indicator and design efficient performance collection or estimation approach based on the corresponding metrics, which could be used as the parameter input of multi-channel assignment mechanism. Comprehensive dynamically control system is designed for multi-channel assignment task based on light weight and high efficient computation intelligence techniques. We present a fuzzy-based dynamic bandwidth multi-channel assignment mechanism (MCDB_FLS). Cross-layer proactive available bandwidth is estimated as parameters for multi-channel deployment admission control. Reinforcement learning-based approach is proposed for more wisely decision-making in multi- channel allocation mission. Furthermore, fuzzy logic-based bandwidth threshold model provides dynamic optimization on system admission control. Simulations show the MCDB_FLS performs better than benchmark on the metrics of QoS and energy efficiency, achieves the trade-off between energy efficiency and QoS improvement. Finally, we introduce the integration of incremental machine learning approach into multi-channel assignment mechanism with Deep Q Network reinforcement learning method (DQMC). Besides, fully action weight initialization is implemented based on multi-class supervised learning classifier with stacking ensemble approach. DQMC improve the ability of self-adaptive and smart control to learn pattern from different environment of multi-tasks WMSNs
APA, Harvard, Vancouver, ISO, and other styles
44

Amour, Lamine. "Mise en oeuvre d’un modèle adaptatif pour l’estimation de la qualité réelle perçue par l’usager (QoE) : application aux services mobiles." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC0043.

Full text
Abstract:
Le contexte général de la thèse se situe dans le développement de mécanismes adaptatifs capables de récupérer des éléments d’information issus d’un environnement et d’un contexte donnés (Qualité de l’Expérience : QoE) et de s’y adapter afin d’enclencher des actions spécifiques correctrices suite à l’arrivée d’événements imprévisibles ou non souhaités comme une QoS insatisfaisante, un retour d’expérience négatif ou encore des dysfonctionnements des éléments du réseau. Pour ce faire, l’idée maîtresse défendue ici consiste à faire évoluer la gestion du réseau en migrant d’une vue "centrée réseau" où l’on se contentait uniquement des paramètres issus du réseau lui-même, vers une vue "centrée utilisateur". Cette vue consiste à considérer l’ensemble des facteurs, endogènes ou exogènes, pouvant impacter le retour d’expérience de l’utilisateur final. Les travaux développés dans le cadre de cette thèse se sont focalisés sur l’étude de ces facteurs sur l’ensemble des composants de la chaîne de traitement et de transport (utilisateur, périphérique, application, éléments du réseau) et mesurer leur impact dans l’estimation de la QoE usager. Le cas d’usage considéré concerne les approches de diffusion de vidéos en ligne. Les travaux de thèse ont conduit à la proposition d’une nouvelle solution de diffusion de vidéos à débit variable fonctionnant en boucle fermée et sensible à la QoE. Une telle solution permet d’optimiser en temps réel la qualité de la vidéo en fonction de la mesure instantanée de la QoE estimée
The general context of the thesis is the development of adaptive mechanisms that uses information from a given environment and context (Quality of Experience: QoE) and adapting it in order to initiate a specific corrective actions following the occurrence of undesirable events such as an unsatisfactory Quality of Service (QoS), negative feedback or malfunctions of network elements. To do this, the main objective of this thesis is to develop a new network management by moving from a "network centred" view, where only parameters from the network itself were used, to a "user centred" view. This view consists in considering all the factors that can impact the end-user's experience. The work developed as part of this thesis focused on studying these factors on all components of the processing and transport chain (user, peripheral, application, network elements) and measuring their impact in estimating user QoE. The use case considered concerns approaches to the dissemination of adaptive bit rate streaming (ABR). The thesis work led to the proposal of a new solution for the adaptive bit rate streaming operating in a closed loop and sensitive to QoE. Such a solution allows to optimize in real time the quality of the video according to the instantaneous measurement of the estimated QoE
APA, Harvard, Vancouver, ISO, and other styles
45

Van, Wambeke Nicolas. "Une approche pour la composition autonome de services de communication orientés QoS : Application aux protocoles de transport configurables." Phd thesis, INSA de Toulouse, 2009. http://tel.archives-ouvertes.fr/tel-00433046.

Full text
Abstract:
Les dernières évolutions de l'Internet se sont traduites par l'émergence de nouvelles applications distribuées et par la multiplication des technologies réseaux (sans fils, mobiles. . . ) ainsi que des services offerts par les opérateurs sur de nouveaux types de terminaux (portable, PDA. . . ). L'enjeu socio économique majeur de ces avancées est le futur Internet ambiant, à la fois ubiquitaire et intelligent, au travers duquel l'utilisateur pourra, quelle que soit sa localisation et son point d'accès, bénéficier d'une qualité de service (QdS) maximale compatible avec l'environnement applicatif et réseau courant, hétérogène et dynamique. Dans cet horizon, la thèse présente une architecture ainsi que des modèles et algorithmes permettant de réaliser une composition dynamique et auto-adaptative des services fournis par les multiples mécanismes de QdS existants. L'approche proposée repose sur l'adaptabilité dynamique et coordonnée, à la fois du comportement et de l'architecture des protocoles composant la pile de communication. La démarche suivie se base sur la théorie de l'intelligence artificielle et l'apprentissage et propose la spécification, l'implémentation et l'évaluation d'un système de communication adaptatif en fonction à la fois, des exigences applicatives liées aux flux manipulés, et des contraintes de l'environnement de communication. Enfin, l'évaluation faite des modèles dedécision et d'apprentissage illustre comment le système permet de répondre à son objectif et valide ainsi les concepts qui sont proposés dans cette thèse.
APA, Harvard, Vancouver, ISO, and other styles
46

Cousty, Jean. "Lignes de partage des eaux discrètes : théorie et application à la segmentation d'images cardiaques." Phd thesis, Université de Marne la Vallée, 2007. http://tel.archives-ouvertes.fr/tel-00321885.

Full text
Abstract:
La notion de clivage formalise l'idée d'ensemble frontiére dans un graphe. Fusionner deux régions, comme le requièrent certaines méthodes de segmentation d'images, pose des diffIcultés. Nous introduisons quatre classes de graphes (de fusion) dans lesquels ces diffIcultés sont progressivement supprimées. Nous montrons que l'une de ces classes est celle pour laquelle tout clivage est mince. Nous introduisons une relation d'adjacence, appelée grille de fusion parfaite, dans laquelle deux régions voisines peuvent être fusionnées, en préservant toutes les autres régions.

La ligne de partage des eaux topologique (LPE) étend la notion de clivage aux graphes dont les sommets sont valués et permet de segmenter une image. Nous étendons les propriétés des clivages dans les graphes de fusion aux cas des fonctions et proposons un algorithme de LPE
monotone et linéaire dans les grilles de fusion parfaites. Grâce à la notion de graphe d'arêtes, les propriétés des LPE dans les grilles de fusion parfaites s'étendent aux graphes à arêtes valuées.

Nous étudions en profondeur les LPE dans les graphes à arêtes valuées. Les LPE peuvent y être définies en suivant l'idée intuitive de gouttes d'eau s'écoulant sur un relief topographique. Nous établissons aussi bien la consistance que l'optimalité de cette définition. De plus, nous proposons deux algorithmes linéaires qui, à notre connaissance, sont les plus efficaces pour le calcul des LPE.

En nous reposant sur ces résultats théoriques, nous proposons une méthode et développons un logiciel pour la segmentation du ventricule gauche dans des images cardiaques 3D+t par résonance magnétique. La méthode est quantitativement et qualitativement validée par comparaison avec des segmentations manuelles tracées par deux experts cardiologues.
APA, Harvard, Vancouver, ISO, and other styles
47

Michaud, Jean-Baptiste. "Efficacité de détection en tomographie d'émission par positrons: une approche par intelligence artificielle." Thèse, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/5284.

Full text
Abstract:
En Tomographie d'Émission par Positrons (TEP), la course à la résolution spatiale nécessite des détecteurs de plus en plus petits, produisant plus de diffusion Compton avec un impact négatif sur l’efficacité de détection du scanner. Plusieurs phénomènes physiques liés à cette diffusion Compton entachent tout traitement des coïncidences multiples d'une erreur difficile à borner et à compenser, tandis que le nombre élevé de combinaisons de détecteurs complexifie exponentiellement le problème. Cette thèse évalue si les réseaux de neurones constituent une alternative aux solutions existantes, problématiques parce que statistiquement incertaines ou complexes à mettre en œuvre. La thèse réalise une preuve de concept pour traiter les coïncidences triples et les inclure dans le processus de reconstruction, augmentant l'efficacité avec un minimum d'impact sur la qualité des images. L'atteinte des objectifs est validée via différents critères de performance comme le gain d'efficacité, la qualité de l'image et le taux de succès du calcul de la ligne de réponse (LOR), mesurés en priorité sur des données réelles. Des études paramétriques montrent le comportement général de la solution : un réseau entraîné avec une source générique démontre pour le taux d'identification de la LOR une bonne indépendance à la résolution en énergie ainsi qu'à la géométrie des détecteurs, du scanner et de la source, pourvu que l'on ait prétraité au maximum les données pour simplifier la tâche du réseau. Cette indépendance, qui n'existe en général pas dans les solutions existantes, laisse présager d'un meilleur potentiel de généralisation à d'autres scanners. Pour les données réelles du scanner LabPET[indice supérieur TM], la méthode atteint un gain d'efficacité aux alentours de 50%, présente une dégradation de résolution acceptable et réussit à recouvrer le contraste de manière similaire aux images de référence, en plus de fonctionner en temps réel. Enfin, plusieurs améliorations sont anticipées.
APA, Harvard, Vancouver, ISO, and other styles
48

Histace, Aymeric. "Détection et suivi robustes de structures sur des séquences d'images : application à l'IRM cardiaque marquée." Angers, 2004. http://www.theses.fr/2004ANGE0022.

Full text
Abstract:
Cette thèse s'intéresse à la détection et au suivi de données dans des séquences d'images. Nous montrons que l'intégration dans un modèle simple de contour actif d'énergies externes particulières permet une détection et un suivi robustes et fiables de structures. Ce travail s'organise autour de l'analyse quantitative de séquences IRM cardiaques marquées. L'étude de ces séquences d'images nécessite la mise en place de méthodes adaptées à la détection et au suivi des contours interne et externe du ventricule gauche, ainsi que à ceux de la grille de marquage. Pour la première étape, nous intégrons une énergie image fondée sur une analyse texturale des IRM marquées. Quant au suivi de la grille de tags, nous générons l'énergie externe par la mise en place d'un prétraitement des images de type diffusion anisotrope, fondé sur un formalisme informationnel utilisant le processus de l'Information Physique Extrême. L'ensemble des résultats obtenus a été validé par un expert médical
This thesis is dealing with the detection and the follow-up of structures in image sequences. We show that the integration of original external energies in a simple active contours model can lead to precise and reliable data detections. This work is presented through a particular application : the study of tagged cardiac MRI sequences. The study of those sequences can be divided into two parts : a detection and a follow-up of the internal and external boundaries of the Left Ventricle and a detection and a follow-up of the grid of tags. For the achievement of the first step, we propose the integration of a particular external energy which generation is based on a texture analysis of the tagged MRI. For the second, we propose an anisotropic diffusion of the images, which leading equation is based on an informational formalism using the Extreme Physical Information process. All the obtained results has been validated by a medical expert
APA, Harvard, Vancouver, ISO, and other styles
49

Mornet, Clemence. "Reconstruction couleur sous faible éclairement pour des capteurs d'images en technologie CMOS." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT112/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Nébouy, David. "Printing quality assessment by image processing and color prediction models." Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4018/document.

Full text
Abstract:
L'impression, bien qu'étant une technique ancienne pour la coloration de surfaces, a connu un progrès considérable ces dernières années essentiellement grâce à la révolution du numérique. Les professionnels souhaitant remplir les exigences en termes de qualité du rendu visuel de leurs clients veulent donc savoir dans quelle mesure des observateurs humains sont sensibles à la dégradation d'une image. De telles questions concernant la qualité perçue d'une image reproduite peuvent être séparées en deux sujets différents: La qualité de l'impression, comme la capacité d'un système d'impression à reproduire fidèlement l'image d'origine, et la qualité d'une image imprimée, résultant à la fois de la qualité de reproduction, mais aussi de la qualité même de l'image numérique d'origine. Ce premier concept repose sur une analyse physique de la façon dont l'image d'origine est dégradée lors de son transfert sur un support, et nous proposons de la coupler avec une analyse sensorielle, visant à évaluer des attributs perceptuels et leur donner une valeur sur une certaine échelle, déterminée par des échantillons de référence classés par un ensemble d'observateurs. Le second concept inclut cette dégradation due à l’impression mais aussi la qualité perçu de l’image d’origine, qui ne fait pas parti de notre étude. Notre approche consiste d'abord à définir les différents indices de qualité, basés sur des critères mesurables en utilisant des outils d'évaluation basés sur des algorithmes "objectifs" de traitement d'image et des modèles optiques, sur une image imprimée-scannée. Thèse réalisée au Laboratoire Hubert Curien
Printing, though an old technique for surface coloration, considerably progressed these last decades especially thanks to the digital revolution. Professionals who want to meet the demands in terms of quality regarding the visual rendering of their clients thus want to know to which extent human observers are sensitive to the degradation of an image. Such questions regarding the perceived quality of a reproduced image can be split into two different topics: the printing quality as capacity of a printing system of accurately reproduce an original digital image, and the printed image quality which results from both the reproduction quality and the quality of the original image itself. The first concept relies on physical analysis of the way the original image is deteriorated when transferred onto the support, and we propose to couple it with a sensorial analysis, which aims at assessing perceptual attributes by giving them a value on a certain scale, determined with respect to reference samples classified by a set of observers. The second concept includes the degradation due to the printing plus the perceived quality of the original image, not in the scope of this work. In this report, we focus on the printing quality concept. Our approach first consists in the definition of several printing quality indices, based on measurable criteria using assessment tools based on “objective” image processing algorithms and optical models on a printed-then-scanned image. PhD work made in Hubert Curien Laboratory
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography