Letteratura scientifica selezionata sul tema "Évaluation de la qualité d’image sans référence"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Évaluation de la qualité d’image sans référence".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Évaluation de la qualité d’image sans référence":

1

Bastianelli, Denis, e Laurent Bonnal. "Evaluation de la qualité des produits du canard gras". Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, n. 3 (27 giugno 2015): 135. http://dx.doi.org/10.19182/remvt.10176.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La caractérisation des produits animaux est importante autant pour le suivi de leur qualité que pour la recherche de leur amélioration par des voies d’amélioration génétique ou de pro­cédés technologiques. L’enjeu est particulièrement important pour des filières à forte valeur ajoutée, comme le canard gras.Dans le cadre d’essais sur l’amélioration génétique du canard (2), des méthodes rapides – spectroscopie proche infrarouge (SPIR) – de prédiction de la qualité ont été testées pour le foie gras et pour le filet (magret). Il s’agissait de permettre la mesure sur un grand nombre d’échantillons de paramètres dont la méthode de référence est particulièrement longue (matières grasses [MG] par extraction Folch, rendement technologique, entre autres) et d’étudier la possibilité de les appliquer ensuite dans l’industrie.Les spectres des échantillons ont été acquis sur un spectromètre ASD Labspec, directement sur le produit entier (foie ou magret), sans préparation. L’étalonnage a été réalisé avec des mesures de composition chimique (matière sèche [MS], minéraux, protéines, MG) ou technologique (par exemple taux de fonte pour le foie, pertes à la cuisson pour le filet) (1).La précision des étalonnages a varié selon les paramètres (tableau I). Les paramètres de composition proximale ont glo­balement été bien prédits (MS, MG, protéines) avec des valeurs de R² comprises entre 0,80 et 0,90. Certains constituants bio­chimiques comme le collagène ont été moins facilement prédits (R² = 0,19), soit par manque de variabilité dans la population, soit par des défauts dans les mesures de référence. Les propriétés technologiques du filet sont difficiles à approcher par SPIR, avec par exemple une valeur de R² = 0,19 pour la prédiction de la perte à la cuisson. En revanche, la qualité technologique du foie évaluée par le taux de fonte est assez bien prédite (R²=0,85) pour permettre une évaluation objective du produit.Dans un second temps les étalonnages réalisés ont été appli­qués à l’étude de la variabilité intra-échantillon : 46 spectres acquis sur toute la surface d’un foie gras ont permis d’établir des cartes de répartition des constituants et des propriétés des foies, comme le montre la figure 1 pour le taux de fonte.Les calibrations réalisées ont permis de prédire la composition chimique de plusieurs milliers d’échantillons, et d’évaluer les paramètres génétiques (héritabilité) et de rechercher des locus de caractères quantitatifs (2). La base de données générée a également permis de décrire la variabilité des paramètres de qualité. L’étude de la variabilité de composition au sein même d’un échantillon permet de mieux comprendre l’élaboration des propriétés technologiques. Par ailleurs des essais sont actuelle­ment en cours chez un industriel pour utiliser ces résultats dans la caractérisation du foie en routine.
2

McDonald, Lynn. "Systems Science in Health—Social Services for the Elderly and the Disabled. C. Tilquin (ed.) Systems Science Press Offices, Montreal, Que. 1983, pp. 884". Canadian Journal on Aging / La Revue canadienne du vieillissement 6, n. 4 (1987): 329–33. http://dx.doi.org/10.1017/s0714980800007625.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
RÉSUMÉCet énorme volume contient 172 des 211 exposés présentés lors de Systed 83, une conférence internationale spécialisée qui a eu lieu à Montréal. Le but principal de cette assemblée était de discuter des questions qui touchent les personnes du troisième âge et les handicapés, tels la condition de santé, les soins à long terme et la gamme des services sociaux dont ils disposent. Cet ouvrage comporte quatre sections principales subdivisées à leur tour en 16 différents sous-thèmes.La première section contient 51 articles qui s'adressent aux problèmes envisagéd par les personnes âgées dans la société, aux nouvelles méthodes qui pourraient améliorer les services sociaux, aux formules d'intervention innovatrices, et en conclusion, une analyse sommaire du système éducatif et des techniques d'apprentissage. La deuxième section comporte 56 articles qui examinent d'abord les méthodes d'intervention psycho-sociales, enchaîne ensuite avec une évaluation de la technologie, brosse un tableau des demandes et des besoins, examine l'utilisation et les analyses de cout, passe aux problèmes d'évaluations fonctionnelles, pour finalement explorer succinctement les problèmes qui se rattachent à la dépendance, au volume de travail et les méthodes employées pour mesurer la qualité. La troisième section, regroupant 42 articles, est consacrée aux services communautaires, notamment l'évaluation des soins à domicile, la famille, les refuges pour les sans-logis et les services de consultation externe. La dernière section, contenant 23 articles, est réservée aux problèmes administratifs. Entre autres, on y retrouve une analyse des lois et des règlements, une évaluation des besoins, les divers systèmes d'information en place et la répartition des ressources.Environ 22 articles s'adressent aux problèmes des handicapés, mentalement aussi bien que physiquement, 3 articles sur les enfants et le reste portent sur les gens âgés. En tout, 51 articles sont publiés en français et 49 d'entre eux offrent une traduction abrégée de longueur et de qualité plus ou moins uniforme. Les comptes rendus de conférence sont reconnus pour la qualité irrégulière de leur présentation et ce volume n'est pas l'exception. Chaque section contient d'excellents papiers de recherches, plusieurs sont édifiants et descriptifs, et un bon nombre auraient dû être omis. Le lecteur n'aura sûrement pas le courage de lire intégralement ce volume; cependant, les étudiants, les chercheurs, les praticiens et les administrateurs qui oeuvrent au domaine de la gérontologie et de la réhabilitation pourront se baser sur cet ouvrage en guise de manuel de référence.
3

BROCHARD, M., K. DUHEN e D. BOICHARD. "Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait"". INRAE Productions Animales 27, n. 4 (21 ottobre 2014): 251–54. http://dx.doi.org/10.20870/productions-animales.2014.27.4.3071.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dossier "PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait Avant-propos Le lait est un produit animal complexe à l’origine de multiples valorisations en alimentation humaine : laits de consommation incluant les laits infantiles, fromages, beurres, crèmes, yaourts, desserts et boissons lactées, ingrédient dans une grande diversité de pâtisseries et de plats cuisinés, etc. Il s’agit donc d’un pilier de l’alimentation humaine y compris à l’âge adulte et ce depuis des milliers d’années. Toutefois, les demandes des consommateurs et de la société ont évolué rapidement ces dernières années et les exigences en matière de qualité des produits se sont complexifiées (Le Bihan-Duval et al 2014). Tout d’abord du point de vue du consommateur, en particulier occidental, l’alimentation doit désormais répondre à une diversité d’attentes. A la demande en « quantité » d’après-guerre, se sont en particulier ajoutées des exigences sanitaires, des exigences organoleptiques, de traçabilité du produit, des exigences nutritionnelles, et après une période « nutrition - santé » (Cniel 2011), une exigence croissante de « naturalité ». De plus, du point de vue du citoyen, la qualité intègre l’environnement, le bien-être animal, les conditions de production. Une partie des consommateurs a d’ailleurs évolué vers une stratégie d’achat « responsable » (Cniel 2011). Simultanément, le lait, bien que bénéficiant d’une image traditionnellement et majoritairement favorable à plusieurs titres, est confronté ces dernières années à des remises en causes parfois virulentes (allergies, intolérances, rejet des matières grasses saturées et trans…) qui s’installent probablement durablement dans les rapports des consommateurs avec le lait (Cniel 2011). Malgré ce contexte exigeant et changeant, jusqu’à aujourd’hui, au-delà des quantités totales en matières grasses et protéiques, peu de dispositifs sont disponibles et mis en œuvre pour suivre, qualifier, voire piloter la composition fine du lait « en sortie de ferme ». Le lait a suivi, avec le développement du secteur laitier, un processus de standardisation conformément au principe du « lait apte à toute transformation », devenant une matière première à laquelle l’application de procédés de fabrication variés donne de la valeur. Ce constat est à moduler pour les filières AOP fromagères. La composition fine du lait, en particulier la variabilité des profils en acides gras et en protéines, n’est pas ou peu valorisée, ni au niveau de la production, ni au niveau de la transformation. Dans le contexte actuel, traiter le lait de manière indifférenciée peut être contre-productif, en particulier si l’on reconsidère la richesse intrinsèque de la matière première « lait » et le fait que la composition du produit final reflète largement la composition du lait d’origine (Lucas et al 2006). Le lait « en sortie de ferme » se situe à la charnière entre l’amont et l’aval des filières laitières et, à ce titre, est idéalement placé pour être une source importante de compétitivité et d’adaptabilité des filières laitières dans leur globalité. Le sujet de la composition fine du lait a bien entendu fait l’objet de travaux bien avant que le programme PhénoFinlait ne soit imaginé et mis en œuvre. Ainsi, les liens entre alimentation et profil en acides gras (Chilliard et al 2007, Couvreur et al 2007, Hurtaud et al 2007) ou encore les variants génétiques des lactoprotéines majeures (Grosclaude et al 1987, Grosclaude 1988) ont été étudiés généralement à partir de dispositifs expérimentaux. Ces connaissances ont servi de point de départ et d’assurance sur la faisabilité et l’intérêt d’engager un programme à grande échelle. L’ambition de PhénoFinlait était alors de transposer ces connaissances et hypothèses en élevages privés avec une grande diversité de systèmes d’alimentation et de coupler cela à une analyse conjointe du déterminisme génétique afin d’apporter aux éleveurs et à leurs filières des outils et des réponses globales. De nombreuses nouvelles références étaient bien évidemment à établir, mais l’un des enjeux majeurs portait et porte toujours sur les possibilités de transfert aux filières. Les développements à la fois de la spectrométrie dans l’infra-rouge et de la sélection génomique ont ouvert de nouvelles portes en matière d’accès à la composition fine du lait à coûts réduits et d’analyses de ses déterminants génétiques.Les travaux pionniers de la Faculté Universitaire des Sciences Agronomiques de Gembloux (Soyeurt et al 2006) ont ainsi ouvert la voie à l’estimation de nombreux composants fins du lait à partir d’une exploitation plus fine des données d’absorbance de la lumière dans le Moyen Infra-Rouge (MIR) principalement. Le principe est simple : la spectrométrie MIR, utilisée pour estimer les taux de matière grasse et protéique en routine dans les laboratoires d’analyse du lait, peut aussi être utilisée pour quantifier individuellement certains composants fins. Des modèles de prédiction sont développés à partir d’un jeu d’échantillons caractérisés à la fois à l’aide d’une méthode d’ancrage et par un spectre MIR. Ces modèles sont ensuite appliqués aux données spectrales telles que celles produites dans le cadre des analyses laitières habituelles de paiement du lait à la qualité et de contrôle laitier. Plusieurs dizaines d’acides gras et protéines peuvent ainsi être estimés avec une précision satisfaisante et à un coût additionnel modeste par rapport aux analyses déjà réalisées en routine. Parallèlement, les avancées dans le domaine de la génomique permettent d’analyser et d’exploiter plus rapidement et plus finement le déterminisme génétique des caractères. Là encore, le principe est relativement simple : deséquations d’estimation du potentiel génétique des animaux pour les différents caractères sont établies à partir d’une population de référence (animaux génotypés et caractérisés d’un point de vue phénotypique). Cette population peut être de taille beaucoup plus restreinte que celle nécessaire pour mettre en œuvre une évaluation génétique « classique ». Par ailleurs, les équations produites permettent de déterminer le potentiel génétique d’un animal sans pour autant qu’il dispose lui-même (ou ses descendants) de phénotype mesuré (Robert-Granié et al 2011). L’un des enjeux en sélection est alors de concevoir et de mettre en œuvre des programmes de caractérisation phénotypique de populations de référence, ce que l’on a appelé des programmes de « phénotypage » à plus ou moins grande échelle. Le programme PhénoFinlait est l’un des premiers grands programmes de phénotypage à haut débit (Hocquette et al 2011) avec ses caractéristiques : phénotypage fin sur la composition du lait, dans des systèmes d’élevage caractérisés, en particulier, par l’alimentation, préalable à un génotypage à haut débit des animaux suivis. Face à ces enjeux pour la filière laitière et ces nouvelles potentialités techniques et scientifiques, les filières laitières bovine, caprine et ovine, les acteurs de l’élevage (conseil en élevage et laboratoires d’analyse du lait) et de la génétique (entreprises de sélection et de mise en place d’insémination), les instituts de recherche et de développement (Inra, Institut de l’Elevage, Actalia) et APIS-GENE ont décidé de se constituer en consortium afin d’unifier leurs efforts et de partager leurs compétences et réseaux. Le consortium, avec le soutien financier d’APIS-GENE, de l’ANR, du Cniel, du Ministère de l’Agriculture (fond dédié CASDAR et Action Innovante), de France AgriMer, de France Génétique Elevage, du fond IBiSA et de l’Union Européenne, a initié début 2008 un programme pour :- analyser la composition fine du lait en acides gras et en protéines par des méthodes de routine et des méthodes d’ancrage ultra-résolutives (protéines) ;- appliquer ces méthodes à grande échelle sur une diversité de systèmes et de races représentatives de la diversité de la ferme France afin d’identifier des facteurs influençant la composition fine du lait ;- optimiser la valorisation des ressources alimentaires et génétiques par le conseil en élevage ;- initier une sélection génomique. Au-delà de ces objectifs, le programme PhénoFinlait a été envisagé comme un investissement majeur et collectif pour les filières laitières françaises afin de leur permettre de conserver ou de développer des avantages compétitifs par la possibilité de mieux valoriser la composition fine et demain ultrafine (grâce à des méthodes plus fines encore que la spectrométrie MIR) du lait. Les bases de données et d’échantillons ont ainsi vocation à être exploitées et ré-exploitées pendant plusieurs années au fur et à mesure des demandes des filières et de l’avancée des connaissances et des technologies d’analyse du lait. D’autres pays se mobilisent également sur cette problématique : Pays-Bas, Nouvelle-Zélande, Danemark et Suède, Italie, Belgique, etc. Ce dossier de la revue Inra Productions Animales fait état des principales productions issues à ce jour du programme PhénoFinlait. Il n’a pas vocation à couvrir exhaustivement les résultats produits. En particulier, nous ne présenterons pas systématiquement l’ensemble des résultats pour l’ensemble des espèces, races et composants. Néanmoins, nous nous sommes attachés à présenter à travers trois articles de synthèse et un article conclusif les principales avancées permises par ce programme à partir d’exemples pris dans les différentes filières. Gelé et al, débutent ce dossier par une présentation du programme dans ses différents volets, depuis la détermination des élevages et animaux à suivre jusqu’à la collecte et la conservation d’échantillons (de lait et de sang), en passant par l’enregistrement en routine des spectres MIR, des conditions d’alimentation, le prélèvement d’échantillons de sang puis, plus tard, le génotypage sur des puces pangénomiques. Cet article développe plus particulièrement la méthodologie mise en place pour déterminer la composition du lait en acides gras etprotéines à partir de spectres MIR. Enfin, il dresse un bilan des données collectées, permettant d’actualiser les références sur la caractérisation des troupeaux, des femelles laitières, des régimes alimentaires, et du profil des laits produits dans les trois filières laitières françaises. Legarto et al, présentent ensuite les résultats relatifs à l’influence des facteurs physiologiques (stade de lactation...), alimentaires (à travers des typologies de systèmes d’alimentation), raciaux et saisonniers, sur les profilsen acides gras. Ces résultats mettent en évidence de nombreuses sources de variation de la composition du lait qui pourront être exploitées à différentes échelles : animal, troupeau et bassin de collecte. Enfin, Boichard et al, présentent une synthèse de l’analyse du déterminisme génétique des acides gras d’une part et des protéines d’autre part. Cette synthèse aborde les estimations de paramètres génétiques tels que l’héritabilité et les corrélations génétiques entre caractères de composition fine entre eux, et avec les caractères de production. Ces résultats permettent en particulier de définir les potentialités de sélection ainsi que les liaisons génétiques à considérer. Ces analyses ont aussi permis de mesurer l’importance du choix de l’unité d’expression des teneurs (en pourcentage de la matière grasse ou protéique, ou en pourcentage dans le lait). Dans une dernière partie, cet article présente les analyses de détection de QTL avec une analyse des co-localisations entre races, entre composants et avec des gènes majeurs connus. RéférencesBoichard D., Govignon-Gion A., Larroque H., Maroteau C., Palhière I., Tosser-Klopp G., Rupp R., Sanchez M.P., Brochard M., 2014. Déterminisme génétique de la composition en acides gras et protéines du lait des ruminants. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 283-298. Chilliard Y., Glasser F., Ferlay A., Bernard L., Rouel J., Doreau M., 2007. Diet, rumen biohydrogenation, cow and goat milk fat nutritional quality: a review. Eur. J. Lipid Sci. Technol., 109, 828-855. Cniel, 2011. Lait, produits laitiers et société : France 2025 – Prospective collective. Note de synthèse sur les évolutions probables, juillet 2011. Couvreur S., Hurtaud C., Marnet P.G., Faverdin P., Peyraud J.L., 2007. Composition of milk fat from cows selected for milk fat globule size and offered either fresh pasture or a corn silage-based diet. J. Dairy Sci., 90, 392-403. Gelé M., Minery S., Astruc J.M., Brunschwig P., Ferrand M., Lagriffoul G., Larroque H., Legarto J., Martin P., Miranda G., Palhière I., Trossat P., Brochard M., 2014. Phénotypage et génotypage à grande échelle de la composition fine des laits dans les filières bovine, ovine et caprine. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds). Dossier, INRA Prod. Anim., 27, 255-268. Grosclaude F., Mahé M.F., Brignon G., Di Stasio L., Jeunet R., 1987. A Mendelian polymorphism underlying quantitative variations of goat αS1-casein. Génét. Sel. Evol., 19, 399-412. Grosclaude F., 1988. Le polymorphisme génétique des principales lactoprotéines bovines. Relations avec la quantité, la composition et les aptitudes fromagères du lait. INRA Prod. Anim., 1, 5-17. Hocquette J.F., Capel C., David V., Guemene D., Bidanel J., Barbezant M., Gastinel P.L., Le Bail P.Y., Monget P., Mormede P., Peyraud J.L., Ponsart C., Guillou F., 2011. Les objectifs et les applications d’un réseau organisé de phénotypage pour les animaux d’élevage. Renc. Rech. Rum., 18, 327-334. Hurtaud C., Peyraud J.L., 2007. Effects of feeding camelina (seeds or meal) on milk fatty acid composition and butter spreadability. J. Dairy Sci., 90, 5134-5145. Le Bihan-Duval E., Talon R., Brochard M., Gautron J., Lefevre F., Larzul C., Baeza E., Hocquette J.F., 2014. Le phénotypage de la qualité des produits : enjeux de société, scientifiques et techniques. In : Phénotypage des animaux d’élevage. Phocas F. (Ed). Dossier, INRA Prod. Anim., 27, 223-234. Legarto L., Gelé M., Ferlay A., Hurtaud C., Lagriffoul G., Palhière I., Peyraud J.L., Rouillé B., Brunschwig P., 2014. Effets des conduites d’élevage sur la composition en acides gras du lait de vache, chèvre et brebis évaluéepar spectrométrie au moyen infrarouge. In : PhénoFinlait : Phénotypage et génotypage pour la compréhension et la maîtrise de la composition fine du lait. Brochard M., Boichard D., Brunschwig P., Peyraud J.L. (Eds).Dossier, INRA Prod. Anim., 27, 269-282. Lucas A., Rock E., Chamba J.F., Verdier-Metz I., Brachet P., Coulon J.B., 2006. Respective effects of milk composition and the cheese-making process on cheese compositional variability in components of nutritionalinterest. Lait, 86, 21-41. Robert-Granié C., Legarra A., Ducrocq V., 2011. Principes de base de la sélection génomique. In : Numéro spécial, Amélioration génétique. Mulsant P., Bodin L., Coudurier B., Deretz S., Le Roy P., Quillet E., Perez J.M. (Eds). INRA Prod. Anim., 24, 331-340. Soyeurt H., Dardenne P., Dehareng F., Lognay G., Veselko G., Marlier M., Bertozzi C., Mayeres P., Gengler N., 2006. Estimating fatty acid content in cow milk using mid-infrared spectrometry. J. Dairy Sci., 89, 3690-3695.

Tesi sul tema "Évaluation de la qualité d’image sans référence":

1

Nguyen, Tan-Sy. "A smart system for processing and analyzing gastrointestinal abnormalities in wireless capsule endoscopy". Electronic Thesis or Diss., Paris 13, 2023. http://www.theses.fr/2023PA131052.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous abordons les défis liés à l'identification et au diagnostic des lésions pathologiques dans le tractus gatro-intestinal (GI). L'analyse des quantités massives d'informations visuelles obtenues par une capsule vidéo-endoscopique (CVE) qui est un excellent outil pour visualiser et examiner le tractus GI y compris l'intestin grêle, représente une charge considérable pour les cliniciens, entraînant un risque accru de diagnostic erroné. Afin de palier à ce problème, nous développons un système intelligent capable de détecter et d'identifier automatiquement diverses pathologies gastro-intestinales. Cependant, la qualité limitée des images acquises en raison de distorsions telles que le bruit, le flou et l'éclairement non uniforme constitue un obstacle significatif. Par conséquent, les techniques de prétraitement des images jouent un rôle crucial dans l'amélioration de la qualité des images acquises, facilitant ainsi les tâches de haut niveau telles que la détection et la classification des anomalies. Afin de résoudre les problèmes liés à la qualité limitée des images causée par les distorsions mentionnées précédemment, plusieurs nouveaux algorithmes d'apprentissage ont été proposés. Plus précisément, les avancées récentes dans le domaine de la restauration et de l'amélioration de la qualité des images reposent sur des approches d'apprentissage qui nécessitent des paires d'images déformées et de référence pour l'entraînement. Cependant, en ce qui concerne la CVE, un défi significatif se pose en raison de l'absence d'une base de données dédiée pour évaluer la qualité des images. À notre connaissance, il n'existe actuellement aucune base de données spécialisée conçu spécifiquement pour évaluer la qualité vidéo en CVE. Par conséquent, en réponse à la nécessité d'une base de données complète d'évaluation de la qualité vidéo, nous proposons tout d'abord la "Quality-Oriented Database for Video Capsule Endoscopy" (QVCED). Ensuite, nos résultats montrent que l'évaluation de la gravité des distorsions améliore significativement l'efficacité de l'amélioration de l'image, en particulier en cas d'illumination inégale. À cette fin, nous proposons une nouvelle métrique dédiée à l'évaluation et à la quantification de l'éclairage inégal dans les images laparoscopiques ou par CVE, en extrayant l'éclairement de l'arrière-plan de l'image et en tenant compte de l'effet de la mise en égalisation de l'histogramme. Notre métrique démontrant sa supériorité et sa performance compétitive par rapport aux méthodes d'évaluation de la qualité d'image avec référence complète (FR-IQA).Après avoir effectué l'étape d'évaluation, nous développons une méthode d'amélioration de la qualité d'image visant à améliorer la qualité globale des images. Le nouvel algorithme est basé sur un mécanisme de l'attention croisée, qui permet d'établir l'interaction d'information entre la tâche de l'extraction du niveau de distorsion et de la localisation de régions dégradées. En employant cet algorithme, nous sommes en mesure d'identifier et de cibler précisément les zones spécifiques des images affectées par les distorsions. Ainsi, cet algorithme permet le traitement approprié adapté à chaque région dégradée, améliorant ainsi efficacement la qualité de l'image. Suite à l'amélioration de la qualité de l'image, des caractéristiques visuelles sont extraites et alimentées dans un classificateur pour fournir un diagnostic par classification. La difficulté dans le domaine de CVE est qu'une partie significative des données reste non étiquetée. Pour relever ce défi, nous avons proposé une méthode efficace basée sur l'approche d'apprentissage auto-supervisé ("Self-Supervised Learning" ou SSL en anglais) afin d'améliorer les performances de la classification. La méthode proposée, utilisant le SSL basé sur l'attention, ont réussi à résoudre le problème des données étiquetées limitées couramment rencontré dans la littérature existante
In this thesis, we address the challenges associated with the identification and diagnosis of pathological lesions in the gastrointestinal (GI) tract. Analyzing massive amounts of visual information obtained by Wireless Capsule Endsocopy (WCE) which is an excellent tool for visualizing and examining the GI tract (including the small intestine), poses a significant burden on clinicians, leading to an increased risk of misdiagnosis.In order to alleviate this issue, we develop an intelligent system capable of automatically detecting and identifying various GI disorders. However, the limited quality of acquired images due to distortions such as noise, blur, and uneven illumination poses a significant obstacle. Consequently, image pre-processing techniques play a crucial role in improving the quality of captured frames, thereby facilitating subsequent high-level tasks like abnormality detection and classification. In order to tackle the issues associated with limitations in image quality caused by the aforementioned distortions, novel learning-based algorithms have been proposed. More precisely, recent advancements in the realm of image restoration and enhancement techniques rely on learning-based approaches that necessitate pairs of distorted and reference images for training. However, a significant challenge arises in WCE which is an excellent tool for visualizing and diagnosing GI disorders, due to the absence of a dedicated dataset for evaluating image quality. To the best of our knowledge, there currently exists no specialized dataset designed explicitly for evaluating video quality in WCE. Therefore, in response to the need for an extensive video quality assessment dataset, we first introduce the "Quality-Oriented Database for Video Capsule Endoscopy" (QVCED).Subsequently, our findings show that assessing distortion severity significantly improves image enhancement effectiveness, especially in the case of uneven illumination. To this end, we propose a novel metric dedicated to the evaluation and quantification of uneven illumination in laparoscopic or WCE images, by extracting the image's background illuminance and considering the mapping effect of Histogram Equalization. Our metric outperforms some state-of-the-art No-Reference Image Quality Assessment (NR-IQA) methods, demonstrating its superiority and competitive performance compared to Full-Reference IQA (FR-IQA) methods.After conducting the assessment step, we proceed to develop an image quality enhancement method aimed at improving the overall quality of the images. This is achieved by leveraging the cross-attention algorithm, which establishes a comprehensive connection between the extracted distortion level and the degraded regions within the images. By employing this algorithm, we are able to precisely identify and target the specific areas in the images that have been affected by distortions. This allows an appropriate enhancement tailored to each degraded region, thereby effectively improving the image quality.Following the improvement of image quality, visual features are extracted and fed into a classifier to provide a diagnosis through classification. The challenge in the WCE domain is that a significant portion of the data remains unlabeled. To overcome this challenge, we have developed an efficient method based on self-supervised learning (SSL) approach to enhance the performance of classification. The proposed method, utilizing attention-based SSL, has successfully addressed the issue of limited labeled data commonly encountered in the existing literature
2

Barland, Rémi. "Évaluation objective sans référence de la qualité perçue : applications aux images et vidéos compressées". Nantes, 2007. http://www.theses.fr/2007NANT2028.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le passage au tout numérique et le développement des communications multimédias engendrent une circulation de l’information de plus en plus dense. Cet accroissement massif de la quantité de données échangées génère une saturation progressive des réseaux de transmission. Pour remédier à cette situation, les standards de compression cherchent à exploiter davantage la corrélation spatiale et/ou temporelle pour réduire les débits. La réduction d’information résultante génère des artéfacts visuels qui peuvent altérer le contenu visuel de la scène et donc provoquer une gêne chez l’utilisateur final. Afin de proposer le meilleur service de diffusion possible, la mesure de la qualité perçue est alors nécessaire. Les tests subjectifs qui représentent la méthode de référence pour quantifier la perception des dégradations, sont coûteux, lourds à mettre en œuvre et demeurent inappropriés pour une mesure de la qualité en ligne. Dans cette thèse, nous nous sommes intéressés aux standards de compression (image et vidéo) les plus usuels et avons élaboré des métriques de qualité sans référence basées sur l’exploitation des artéfacts visuels les plus gênants, tels que les effets de blocs, de flou et de ringing. L’approche proposée est modulaire et s’adapte au codeur considéré et au rapport complexité/performance recherché. Pour une faible complexité, la métrique quantifie les dégradations spécifiques au codeur considéré, en exploitant uniquement les propriétés du signal image. Pour atteindre de meilleures performances, au détriment d’une certaine complexité, celle-ci intègre en plus des modèles cognitifs simulant les mécanismes de l’attention visuelle. Les cartes de saillance générées par ces modélisations sont alors utilisées pour affiner les mesures de dégradations purement signal proposées
The conversion to the all-digital and the development of multimedia communications produce an ever-increasing flow of information. This massive increase in the quantity of data exchanged generates a progressive saturation of the transmission networks. To deal with this situation, the compression standards seek to exploit more and more the spatial and/or temporal correlation to reduce the bit rate. The reduction of the resulting information creates visual artefacts which can deteriorate the visual content of the scene and thus cause troubles for the end-user. In order to propose the best broadcasting service, the assessment of the perceived quality is then necessary. The subjective tests which represent the reference method to quantify the perception of distortions are expensive, difficult to implement and remain inappropriate for an on-line quality assessment. In this thesis, we are interested in the most used compression standards (image or video) and have designed no-reference quality metrics based on the exploitation of the most annoying visual artefacts, such as the blocking, blurring and ringing effects. The proposed approach is modular and adapts to the considered coder and to the required ratio between computational cost and performance. For a low complexity, the metric quantifies the distortions specific to the considered coder, only exploiting the properties of the image signal. To improve the performance, to the detriment of a certain complexity, this one integrates in addition, cognitive models simulating the mechanisms of the visual attention. The saliency maps generated are then used to refine the proposed distortion measures purely based on the image signal
3

Ouni, Sonia. "Evaluation de la qualité des images couleur. Application à la recherche & à l'amélioration des images". Thesis, Reims, 2012. http://www.theses.fr/2012REIMS034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine de recherche dans l'évaluation objective de la qualité des images couleur a connu un regain d'intérêt ces dernières années. Les travaux sont essentiellement dictés par l'avènement des images numérique et par les nouveaux besoins en codage d'images (compression, transmission, restauration, indexation,…). Jusqu'à présent la meilleure évaluation reste visuelle (donc subjective) soit par des techniques psychophysiques soit par évaluation experte. Donc, il est utile, voire nécessaire, de mettre en place des critères et des mesures objectifs qui produisent automatiquement des notes de qualité se rapprochant le plus possible des notes de qualité données par l'évaluation subjective. Nous proposons, tout d'abort, une nouvelle métrique avec référence d'évaluation de la qualité des images couleur, nommée Delta E globale, se base sur l'aspect couleur et intègre les caractéristiques du système visuel humain (SVH). Les performances ont été mesurées dans deux domaines d'application la compression et la restauration. Les expérimentations réalisées montrent une corrélation importante entre les résultats obtenus et l'appréciation subjective. Ensuite, nous proposons une nouvelle approche d'évaluation sans référence de la qualité des images couleur en se basant sur les réseaux de neurones : compte tenu du caractère multidimensionnel de la qualité d'images, une quantification de la qualité a été proposée en se basant sur un ensemble d'attributs formant le descripteur PN (Précision, Naturalité). La précision traduit la netteté et la clarté. Quant à la naturalité, elle traduit la luminosité et la couleur. Pour modéliser le critère de la couleur, trois métriques sans référence ont été définies afin de détecter la couleur dominante dans l'image, la proportion de cette couleur et sa dispersion spatiale. Cette approche se base sur les réseaux de neurones afin d'imiter la perception du SVH. Deux variantes de cette approche ont été expérimentées (directe et progressive). Les résultats obtenus ont montré la performance de la variante progressive par rapport à la variante directe. L'application de l'approche proposée dans deux domaines : dans le contexte de la restauration, cette approche a servi comme un critère d'arrêt automatique pour les algorithmes de restauration. De plus, nous l'avons utilisé au sein d'un système d'estimation de la qualité d'images afin de détecter automatiquement le type de dégradation contenu dans une image. Dans le contexte de l'indexation et de la recherche d'images, l'approche proposée a servi d'introduire la qualité des images de la base comme index. Les résultats expérimentaux ont montré l'amélioration des performances du système de recherche d'images par le contenu en utilisant l'index qualité ou en réalisant un raffinement des résultats avec le critère de qualité
The research area in the objective quality assessment of the color images has been a renewed interest in recent years. The work is primarily driven by the advent of digital pictures and additional needs in image coding (compression, transmission, recovery, indexing,...). So far the best evaluation is visual (hence subjective) or by psychophysical techniques or by expert evaluation. Therefore, it is useful, even necessary, to establish criteria and objectives that automatically measures quality scores closest possible quality scores given by the subjective evaluation. We propose, firstly, a new full reference metric to assess the quality of color images, called overall Delta E, based on color appearance and incorporates the features of the human visual system (HVS). Performance was measured in two areas of application compression and restoration. The experiments carried out show a significant correlation between the results and subjective assessment.Then, we propose a new no reference quality assessmenent color images approach based on neural networks: given the multidimensional nature of image quality, a quantification of quality has been proposed, based on a set of attributes forming the descriptor UN (Utility, Naturalness). Accuracy reflects the sharpness and clarity. As for naturality, it reflects the brightness and color. To model the criterion of color, three no reference metrics were defined to detect the dominant color in the image, the proportion of that color and its spatial dispersion. This approach is based on neural networks to mimic the HVS perception. Two variants of this approach have been tried (direct and progressive). The results showed the performance of the progressive variant compared to the direct variant. The application of the proposed approach in two areas: in the context of restoration, this approach has served as a stopping criterion for automatic restoration algorithms. In addition, we have used in a system for estimating the quality of images to automatically detect the type of content in an image degradation. In the context of indexing and image retrieval, the proposed approach was used to introduce the quality of images in the database as an index. The experimental results showed the improvement of system performance image search by content by using the index or by making a quality refinement results with the quality criterion

Vai alla bibliografia