To see the other types of publications on this topic, follow the link: Mesure de la qualité.

Dissertations / Theses on the topic 'Mesure de la qualité'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Mesure de la qualité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Soubiran, Carole. "Métrologie : exemple de maitrise de processus de mesure, application à la mesure de pression et de température." Paris 5, 1997. http://www.theses.fr/1997PA05P064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Beuran, Razvan Florin. "Mesure de la qualité dans les réseaux informatiques." Saint-Etienne, 2004. http://www.theses.fr/2004STET4005.

Full text
Abstract:
La qualité est une notion essentielle pour les réseaux informatiques d'aujourd'hui par le fait qu'ils sont utilisés sur une échelle de plus en plus large par une gamme toujours plus grande de personnes. Son étude est très importante pour pouvoir juger de l'utilité et de la valeur des réseaux informatiques et des services qu'ils fournissent. La qualité en général porte sur l'adéquation entre les attentes d'un sujet par rapport aux propriétés d'un objet. La qualité dans les réseaux informatiques comporte deux aspects : la qualité de service (QoS) et la qualité perçue par les utilisateurs (UPQ). La qualité de service traite l'adéquation mentionnée en termes de paramètres de performance du réseau : débit, délai et perte de paquets - un triplet avec deux degrés de liberté. La qualité perçue fournie un point de vue plus élevé que la QoS, celui des utilisateurs, et concerne leurs attentes en terme de performance des applications. Dans ce cas, des métriques spécifiques à chaque application sont définies, qui permettent d'évaluer de la manière la plus objective possible le degré de satisfaction des utilisateurs. Nous avons développé une méthodologie et des systèmes de mesure qui permet d'évaluer la QoS et l'UPQ pour les réseaux informatiques et les applications qui tournent à travers eux. D'un côté nous avons pu évaluer la dégradation induite par les éléments du réseau et la différenciation de service qui est introduite par les mécanismes QoS courants. Dans ce dernier cas nous avons mis en évidence les inconvénients profondément inhérents à ces mécanismes. De l'autre côté nous avons établi la corrélation qui existe entre la QoS dans un réseau informatique et l'UPQ pour l'application qui tourne sur ce réseau par une évaluation simultanée des métriques associées à ces deux aspects de la qualité. L'étude effectuée sur le transfert de fichiers et la téléphonie IP nous a permis d'établir de manière objective les conditions que le réseau doit remplir afin que ces applications fournissent aux utilisateurs un niveau de satisfaction donné
Quality is an essential concept for computer networks today given their growing utilisation. Its study is of utmost importance for enabling judgments on the usefulness and value of computer networks and the services they provide. Quality in general is about the correspondence between the expectations of a subject and the properties of an object. Quality in computer networks has two aspects : quality of service (QoS) and user-perceived quality (UPQ). Quality of service treats the above mentioned correspondence in terms of network performance parameters : throughput, loss and delay - a triplet with 2 degrees of freedom. Perceived quality asserts as higher point of view, that of users, and concerns their expectations in terms of application performance. In this case, application specific metrics are defined, that permit assessing in the most objective possible way the degree of user satisfaction. We developed a methodology and test systems that allow assessing the QoS und UPQ for computer networks and applications running over them. On one hand we were able to evaluate the amount of degradation induced by networks elements and the service differentiation introduced by current QoS mechanisms. In the latter case we showed the drawbacks that these mechanisms still have. On the other hand, we established correlation that exists between the network QoS and the application UPQ by simultaneously assessing the metrics associated to these 2 aspects of quality. The studies on file transfer and IP telephony allowed us to establish in an objective fashion the requirements the network must meet for applications to deliver their users a specified satisfaction level
APA, Harvard, Vancouver, ISO, and other styles
3

Bachmann, Jérôme. "Contribution à la propagation des incertitudes dans les gammes de mesure des machines à mesurer par coordonnées." Aix-Marseille 2, 2003. http://www.theses.fr/2003AIX22090.

Full text
Abstract:
L'approche statistique de l'association des surfaces nous permet aujourd'hui, à un risque donné, d'identifier les paramètres des surfaces usuelles. Le moment d'ordre 2 est un indicateur de qualité de l'estimation des paramètres et est homogène à une variance. Cette approche ouvre des perspectives intéressantes en ce qui concerne la propagation des incertitudes. Nous avons mis en place une méthode qui doit s'appliquer à l'ensemble des spécifications de la norme ISO 1101 sans modificateur. La loi de propagation du GUM a été réécrite pour des grandeurs vectorielles. La méthode de propagation généralisée est appliquée à des cas simples qui ont la particularité de mettre en évidence la complexité de la méthode. Celle-ci nécessite un assemblage matriciel qui a pour objectif de ne retenir que les parties fonctionnelles des matrices de covariance et des matrices jacobiennes, en fonction de l'opération géométrique réalisée
The statistical approach of the association of surfaces allows us today, at a given risk, to identify the parameters of usual surfaces. The moment of order 2 is a quality indicator of the estimated parameters and is homogeneous with a variance. This approach opens interesting prospects with regard to the propagation of uncertainties. We set up a method, which must apply to the whole of the specifications of the standard ISO 1101 without modifier. The law of propagation of the GUM was rewritten for vector quantities. The method of generalized propagation is applied to simple cases, which have the characteristic to highlight the complexity of the method. This one requires a matric assembly, which aims to retain only the functional parts of the covariance matrix and the jacobian matrices according to the geometrical operation carried out
APA, Harvard, Vancouver, ISO, and other styles
4

Lee, Jihoon. "Image, mesure et communication." Paris 1, 1996. http://www.theses.fr/1996PA010593.

Full text
Abstract:
Prise indépendamment, les notions de l'image et de la mesure ont beaucoup attiré l'attention des philosophes et des savants. Par contre, prise ensemble, elles n'ont fait l'objet que de rares, d'incomplètes et même contradictoires études. Cette situation tient à plusieurs facteurs dont le plus important serait le suivant : dès le début, la mesure fut opposée à l'image, comme le savant à l'artiste ou comme le pur empirique à la plus grande intériorité. D'où le refus de toute possibilité d'une confrontation globale. Grace à l'actualité scientifique qui s'appuie sur une certaine région interfaciale entre image et mesure, on pourrait commencer à abandonner ce schéma simpliste et unilatéral. Il est établi aujourd'hui que : bien qu'elle fut généralement un travail scientifique, la mesure comporte également une activité qualitative et vice-versa ; bien qu'elle fut un objet typique du subjectif, l'image comprend un aspect quantitatif de la mesure. Notre étude cherche des éléments qui permettraient de voir une asymptote entre deux domaines apparemment tout différents ; y compris la cartographie, la morphologie, la photographie, l'image de synthèse, enfin la simulation informatique
Taken indendently, the notions of the measure and the image have received a lot of attention from the philosophical and the scientific point of view. On the contrary, taken together, they have been simply an object of the rare, incomplete, even contradictory study. This situation could have been caused by diverse factors, of which the most important one would be the following : from the beginning, the measure has been considered as an opposite to the image, just like the scientist to artiste, the pure empirical to the great interior. That's where comes the general refusal of the global confrontation. Thanks to the current science, which depends on a certain interfacial region between the measure and the image, one could begin to abandon this simple and unilateral schema. Today, it becomes to be established : although the measurment is generally a scientific work, it also contains a qualitative activity and viceversa ; although the image is an typical object of the subjectivity, it includes a qualitative aspect of the measure. Our study considers some elements which could allow to see an symptote between two apperently different domains ; including the cartography, the morphology, the photography, the computer graphic and the computer simulation
APA, Harvard, Vancouver, ISO, and other styles
5

Fay, Géraldine. "Qualification et mise en place d'un nouvel appareil de mesure de surface spécifique." Bordeaux 2, 2000. http://www.theses.fr/2000BOR2P009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Huang, Lidan. "Analyse et contrôle de la qualité du logiciel." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0084.

Full text
Abstract:
Dans le contexte économique actuel, la maîtrise de la qualité est devenue un impératif absolu pour les logiciels industriels. Un des objectifs de l'atelier de contrôle de qualité (FIAB) est d'évaluer la qualité du logiciel par une approche quantitative (McCALL). Une étude de METROLOGIE du logiciel a été menée pour tenter d'apporter une réponse aux difficultés qui surgissent lorsqu'il s'agit d'estimer objectivement la qualité du logiciel. Nous nous intéressons à l'exploitation la plus complète possible des informations contenues dans les documents de conception détaillée (formalisés en Langage Algorithmique) et de codage. Si l'on considère l'approche "arbre de qualité" de McCALL, on peut réduire l'arbre complet pour ne conserver qu'un sous-arbre aboutissant à des indices de qualité faciles à réaliser automatiquement. Les mesures nécessaires à. L'évaluation de ces indices sont obtenues à partir d'un analyseur statique multi langage (C, PASCAL, PLM, LDP) constituant l'ossature de FIAB. Cette structure d'accueil (implantée sous UNIX) offre des fonctionnalités telles que la documentation, l'aide aux tests et la vérification des normes de programmation. Les résultats de l'étude permettent essentiellement l'enrichissement de la fonction audit (QUALIMETRE) avec comme objectif une estimation des facteurs de qualité retenus (fiabilité, maintenabilité, portabi lité, modifiabilité, banalité d'emploi, efficacité, intégrité).
APA, Harvard, Vancouver, ISO, and other styles
7

Bressolles, Grégory. "La qualité de service électronique : Netqu@l : mesure, conséquences et variables modératrices." Toulouse 1, 2004. http://www.theses.fr/2004TOU10027.

Full text
Abstract:
Afin d'assurer la croissance du commerce électronique, chercheurs et managers placent la qualité de service au coeur de leurs préoccupations. Bien que vingt ans de recherches dans le cadre d'une expérience de service "traditionnelle" (interpersonnelle) permettent de mieux comprendre ce concept, la recherche concernant la qualité perçue d'une expérience d'achat en ligne en est à ses balbutiements; la nature technique de l'expérience de service sur Internet légitimant le re-examen de ce concept. Cette recherche propose donc un cadre intégrateur de l'évaluation de la qualité de service suite à un achat sur un site Web commercial. Avant d'étudier l'impact de la qualité de service électronique sur ses conséquences telles que la satisfaction suite à la transaction, l'attitude ou la confiance envers la site, les dimensions de la qualité de service électronique sont identifiées et un instrument de mesure associé à ce concept est élaboré. Le rôle modérateur des variables motivationnelles et individuelles sur le processus d'évaluation de la qualité perçue, ainsi que sur ses conséquences, est examiné. Sur la base d'un questionnaire en ligne administré à 855 clients de deux sites marchands, les résultats empiriques montrent que le type de biens vendus sur le site, la familiarité du répondant avec Internet et son expertise dans l'achat en ligne, modèrent le processus d'évaluation de la qualité électronique, ainsi que son impact sur la satisfaction ou l'attitude envers le site. Afin d'obtenir une qualité de service électronique élevée, cette recherche souligne la nécessité de se focaliser sur les aspects fonctionnels du site et de la transaction
In order to guarantee the growth of electronic trade, researchers and managers have placed service quality at the top of their preoccupations. Although studies over the last twenty years on service quality allowed its better understanding in a traditional context, the technical nature of the service experience on Internet legitimates a re-examination of this concept for an online context. Yet, research concerning the perceived quality of an online purchase experience is with its stammerings. This work thus proposes an integrating framework of service quality evaluation following a purchase act on a commercial Website. The dimensions of electronic service quality are identified and a scale measuring Website quality "Netqual" is created, before studying the impact of electronic service quality on its consequences such as satifaction after the transaction, attitude or trust towards the site. The moderating effects of motivational and individual variables on perceived quality evaluation process as well as on its consequences are analysed. Based on 855 online questionnaires filled by the customers of two commercial sites, the empirical results show that the type of goods sold on the site, the Internet familiarity of the respondent and his expertise in online purchase, moderate the electronic service quality evaluation process. These variables also moderate service quality impact on post purchase satisfaction and attitude towards the site. This research shows that in order to offer a high level of electronic service quality, managers must focus on the functional aspects of both the site and the transaction
APA, Harvard, Vancouver, ISO, and other styles
8

Saberi, Atefeh. "Automatic outlier detection in automated water quality measurement stations." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25908.

Full text
Abstract:
Des stations de mesure de la qualité de l’eau sont utilisées pour mesurer la qualité de l'eau à haute fréquence. Pour une gestion efficace de ces mesures, la qualité des données doit être vérifiée. Dans une méthode univariée précédemment développée, des points aberrants et des fautes étaient détectés dans les données mesurées par ces stations en employant des modèles à lissage exponentiel pour prédire les données au moment suivant avec l’intervalle de confiance. Dans la présente étude, ne considérant que le cas univarié, la détection de points aberrants est améliorée par l’identification d’un modèle autorégressif à moyenne mobile sur une fenêtre mobile de données pour prédire la donnée au moment suivant. Les données de turbidité mesurées à l'entrée d'une station d'épuration municipale au Danemark sont utilisées comme étude de cas pour comparer la performance de l’utilisation des deux modèles. Les résultats montrent que le nouveau modèle permet de prédire la donnée au moment suivant avec plus de précision. De plus, l’inclusion du nouveau modèle dans la méthode univariée présente une performance satisfaisante pour la détection de points aberrants et des fautes dans les données de l'étude de cas.
Water quality monitoring stations are used to measure water quality at high frequency. For effective data management, the quality of the data must be evaluated. In a previously developed univariate method both outliers and faults were detected in the data measured by these stations by using exponential smoothing models that give one-step ahead forecasts and their confidence intervals. In the present study, the outlier detection step of the univariate method is improved by identifying an auto-regressive moving average model for a moving window of data and forecasting one-step ahead. The turbidity data measured at the inlet of a municipal treatment plant in Denmark is used as case study to compare the performance of the use of the two models. The results show that the forecasts made by the new model are more accurate. Also, inclusion of the new forecasting model in the univariate method shows satisfactory performance for detecting outliers and faults in the case study data.
APA, Harvard, Vancouver, ISO, and other styles
9

Contri, Alexandre. "Qualité géométrique de la mesure de surfaces complexes par moyens optiques." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Corral, Gonzalez Joël Eduardo. "Mesure de paramètres de qualité de service dans les réseaux IP." Rennes 1, 2004. http://www.theses.fr/2004REN10121.

Full text
Abstract:
Des techniques d'évaluation de performances des réseaux IP sont nécessaires pour les administrateurs, pour ce qui concerne la planification et le dimensionnement, la sécurité et l'évaluation des performances des équipements de communication. La vérification de la QoS offerte par des implémentations DiffServ, ou la caractérisation de la performance de nouveaux médias de transmission comptent parmi les principales motivations pour effectuer des mesures dans les réseaux IP. On distingue deux grandes classes de techniques pour mesurer les performances : les mesures passives et les mesures actives. Pour les premières, il s'agit d'utiliser le trafic réel traversant certains points du réseau, en écoutant des paquets émis par des sources extérieures au processus de mesure. Cette approche est considérée non-intrusive. Les secondes consistent à mesurer, à partir de la génération d'un trafic de test, le temps de traversée du réseau en suivant le même chemin que les flux applicatifs. La QoS observée par ce trafic de test donne une bonne approximation de la QoS obtenue par les applications. Alors que la mesure passive exige des capacités de traitement considérables, la mesure active peut être facilement mise en œuvre dans presque n'importe quel nœud IP. Ce document présente la définition, la mise en œuvre et l'expérimentation de la plateforme de mesure active de bout en bout Saturne. Cette plateforme mesure de manière fine les temps de trajet unidirectionnel des paquets (OWD) et le taux de perte entre deux points du réseau IPv4/IPv6. Les mesures sont faites à partir d'un temps global obtenu grâce à des équipements GPS placés dans chacun des points de mesure. L'architecture est composée de modules fonctionnels indépendants (émission, capture et gestion des données) qui interagissent pour effectuer les mesures. L'architecture Saturne a été employée dans plusieurs scénarios comprenant, mais pas limités à, l'évaluation des fonctionnalités de filtrage IP dans un routeur et la validation des politiques de DiffServ dans un réseau à haut débit. Dans ce dernier cas, on a constaté que les résultats calculés par Saturne sont équivalents à ceux obtenus avec des outils passifs plus complexes. Finalement, nous proposons d'exploiter les capacités d'IPv6 en définissant une extension d'en-tête pour la métrologie. La méthode proposée permet d'inclure l'information de métrologie dans les paquets des flux applicatifs IPv6. Les avantages de cette proposition ont été vérifiés par une série d'expérimentations. GPRS et Bluetooth ont été choisis pour ces tests, en tant que deux médias où IPv6 et la métrologie seront certainement exigés dans un avenir proche. Cette architecture, Saturne-v6, ouvre un nouveau champ de recherche placé au milieu des philosophies de mesure actives et passives.
APA, Harvard, Vancouver, ISO, and other styles
11

Asatsop-Nganmini, Grace Blanche. "La mesure de la qualité perçue d’un dispositif de e-learning." Thesis, Nancy 2, 2009. http://www.theses.fr/2009NAN22004/document.

Full text
Abstract:
Avec le développement de la société des savoirs, l’évaluation de la qualité des formations est devenue une préoccupation sociétale. C’est un mode d’apprentissage spécifique. Il associe les dimensions technologiques - TIC et Internet -, pédagogiques, et de services. La question de la qualité d’un dispositif e-learning constitue un objet d’étude en émergence. Notre recherche propose un modèle d’évaluation de la qualité perçue du dispositif dans son ensemble. L’approche par la qualité perçue est un cadre d’analyse basé sur les attentes des apprenants. A travers des entretiens, ces attentes sont analysées. Une enquête réalisée permet d’obtenir 365 réponses auprès des apprenants en « cours partiellement à distance », et 78 réponses auprès des apprenants en « cours entièrement à distance ». Elle a permis de tester le modèle de recherche et l’échelle de mesure de la qualité perçue combinée en e-learning. Au niveau de la qualité perçue de service globale ou générique, trois dimensions sont validées : la « tangibilité », l’ « assurance » et l’ « empathie ». Au niveau de la qualité perçue spécifique, deux dimensions sont validées : la dimension « tutorat » et la dimension « facilité » de la plateforme. Les qualités de représentations de ces dimensions sont bonnes ainsi que la fiabilité sur l’ensemble des dimensions. Les analyses de la cohérence interne et de la validité donnent des résultats satisfaisants. Une analyse des relations causales entre les variables du modèle et du rôle des variables médiatrices et modératrices est effectuée. La comparaison entre les deux échantillons montre des différences significatives
With the development of the knowledge society, evaluating the quality of education has become a societal concern. It is a specific learning style. It combines the technological - ICT and Internet - pedagogical and service dimensions. The question on the quality of e-learning framework is a subject to study in emergence. Our research proposes a model for assessing the perceived quality of the “e-learning framework” as a whole. The perceived quality’s approach is an analytical framework based on the learner’s expectations. Through interviews with learners, these expectations are analyzed. A survey, carried out enables to obtain a result of 365 responses from learners enrolled in “partially distance course”, and of 78 responses from learners enrolled in “entirely distance course”. It has enabled us to test the research model and the scale for measuring “combined perceived quality” in e-learning. At the level of global or generic perceived quality of service, tree dimensions are validated: the "tangibility" the "insurance" and the "empathy". On the other hands, In terms of specific perceived quality, two dimensions are validated: "tutoring" and "easy of use". The quality of representation of these dimensions is good. The reliability is also good on all the dimensions. Analysis of internal consistency and validity gives satisfactory results. An analysis of the causal relationships between variables of the model and the role of mediating and moderating variables is carried out. The comparison between the two samples shows significant differences
APA, Harvard, Vancouver, ISO, and other styles
12

Sabadie, William. "Contribution à la mesure de la qualité perçue d'un service public." Toulouse 1, 2001. http://www.theses.fr/2001TOU10080.

Full text
Abstract:
Cette recherche s' attache à proposer un cadre d' analyse de l' évaluation des services publics à partir du concept de justice en sciences sociales. Après une conceptualisation de la qualité perçue, le lien qualité perçue-satisfaction a été étudié dans le contexte de services publics redistributif, et industriel et commercial
This research takes particular care over a framework of analysis to estimate the public services from the concept of justice in social sciences. After trying to conceptualize the perceived quality, the link between perceived quality and satifaction has been studied in the public services redistributive context, as well public utilities
APA, Harvard, Vancouver, ISO, and other styles
13

Durin, Virginie. "Mesure de l'impact de la qualité vocale sur le comportement de l'utilisateur." Paris 6, 2009. http://www.theses.fr/2009PA066410.

Full text
Abstract:
L'évolution des télécommunications vers des nouvelles techniques implique la mise à jour des méthodes d'évaluation de la qualité vocale. Elles font intervenir des groupes d'auditeurs qui évaluent la qualité vocale d'échantillons de parole et fournissent une note moyenne d'opinion (note MOS) pour chaque condition testée. Cependant, ces tests présentent deux limites principales : d'une part, la dépendance de ces notes à la distribution des conditions, propre à chaque test, qui limite les comparaisons de notes entre les tests et d'autre part, l'introspection nécessaire à cette évaluation qui peut biaiser les processus naturels de perception de la qualité. Une autre approche est alors explorée, basée sur la mesure de l'impact de la qualité sur des indicateurs comportementaux. Les tâches simples, d'intelligibilité notamment, sont explorées puis écartées en raison de leur faible sensibilité aux dégradations de qualité. La thèse se poursuit donc sur l'hypothèse selon laquelle la qualité influe sur l'efficacité de l'auditeur à effectuer des tâches concurrentes faisant intervenir des signaux de parole dégradés. Le recueil de plusieurs variables dépendantes (taux d'erreurs et temps de réaction) multiplie les chances d'obtenir une mesure sensible à la qualité. Le protocole mis en place combine des tâches de reconnaissance de chiffre et de lettre, et de rappel de chiffres. Les résultats montrent un effet de la qualité sur les temps de réaction et les erreurs. Plusieurs versions de ce protocole sont explorées afin de discriminer les qualités de quatre conditions : fullband (signal original), codeur large bande (G. 729. 1), codeur bande étroite (AMR) et bande étroite bruitée (MNRU 5 dB).
APA, Harvard, Vancouver, ISO, and other styles
14

Grinfeld, Sophie. "Assurance qualité en métrologie : application à la pH métrie." Paris 5, 1997. http://www.theses.fr/1997PA05P119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Poirier, Pascal, and Pascal Poirier. "Outils automatiques d'évaluation de la qualité des données : suivi en temps réel de la qualité de l'eau d'un ruisseau urbain." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25816.

Full text
Abstract:
Lors d’un suivi en temps réel de la qualité de l’eau d’une rivière, une quantité innombrable de données peut être récoltée permettant ainsi une bonne description des dynamiques changeant rapidement. Cependant, des questions s’imposent. Quelle est la qualité des données mesurées en temps réel? Quels sont les effets de données de mauvaise qualité sur les objectifs associés à leur utilisation? Ce mémoire tente de résoudre cette problématique en présentant des outils automatiques d’évaluation de la qualité des données. Ces outils sont généraux et simples, en ce sens qu’ils s’appliquent à différents emplacements (rivière, STEP, égout, etc.) et qu’ils sont basés sur des méthodes univariées faciles à implanter. Suite à l’application de ces outils, la qualité des données est connue et accrue favorisant ainsi l’atteinte des objectifs reliés à un suivi en temps réel. Leur application est démontrée sur des données mesurées lors d’un suivi en temps réel de la qualité de l’eau d’un ruisseau urbain effectué à l’aide de la station monEAU.
Lors d’un suivi en temps réel de la qualité de l’eau d’une rivière, une quantité innombrable de données peut être récoltée permettant ainsi une bonne description des dynamiques changeant rapidement. Cependant, des questions s’imposent. Quelle est la qualité des données mesurées en temps réel? Quels sont les effets de données de mauvaise qualité sur les objectifs associés à leur utilisation? Ce mémoire tente de résoudre cette problématique en présentant des outils automatiques d’évaluation de la qualité des données. Ces outils sont généraux et simples, en ce sens qu’ils s’appliquent à différents emplacements (rivière, STEP, égout, etc.) et qu’ils sont basés sur des méthodes univariées faciles à implanter. Suite à l’application de ces outils, la qualité des données est connue et accrue favorisant ainsi l’atteinte des objectifs reliés à un suivi en temps réel. Leur application est démontrée sur des données mesurées lors d’un suivi en temps réel de la qualité de l’eau d’un ruisseau urbain effectué à l’aide de la station monEAU.
During real-time water quality monitoring in river systems, a huge amount of data is produced which allows a better description of the rapidly changing dynamics compared to spot sampling methods. However, what is the quality of the measured data and what are the impacts of poor data quality on the objectives pursued during real-time water quality monitoring? Therefore, this master thesis proposes automatic data quality assessment tools to tackle this issue. These tools are general and simple, which means that they can be applied to any type of water and that they are based on easy-to-implement univariate methods. Following the application of these tools, data quality will be improved and known as such and will allow to better achieve the objectives of a real-time water quality monitoring project. The application of these tools is demonstrated on data collected during real-time water quality monitoring of an urban river performed using a monEAU station.
During real-time water quality monitoring in river systems, a huge amount of data is produced which allows a better description of the rapidly changing dynamics compared to spot sampling methods. However, what is the quality of the measured data and what are the impacts of poor data quality on the objectives pursued during real-time water quality monitoring? Therefore, this master thesis proposes automatic data quality assessment tools to tackle this issue. These tools are general and simple, which means that they can be applied to any type of water and that they are based on easy-to-implement univariate methods. Following the application of these tools, data quality will be improved and known as such and will allow to better achieve the objectives of a real-time water quality monitoring project. The application of these tools is demonstrated on data collected during real-time water quality monitoring of an urban river performed using a monEAU station.
APA, Harvard, Vancouver, ISO, and other styles
16

Gasquet, Pierre. "Mesure de la qualité d'une séquence vidéo traitée par la compression DCT." Mémoire, Université de Sherbrooke, 2002. http://savoirs.usherbrooke.ca/handle/11143/1203.

Full text
Abstract:
La production d'images vidéo numériques compressées pousse à la création d'un composant essentiel: un moyen fiable de mesurer automatiquement de façon subjective la qualité visuelle des images. Un tel moyen est utile pour évaluer les techniques de compression. La présente recherche de maîtrise décrit un nouvel outil de mesure de la qualité des images vidéo, appelé CPQI ("Coded Picture Quality Index"), qui peut être utilisé pour évaluer automatiquement la qualité visuelle de séquences vidéo en remplaçant la perception humaine. Le CPQI est un algorithme de mesure subjective qui évalue le niveau de bruit et d'artefacts du signal vidéo, notamment d'artefacts dus à la compression, comme la compression MPEG2 avec perte. On utilise dans ce projet un algorithme de segmentation d'images déjà établi, et on prépare, en se basant sur les normes ITU, un test subjectif faisant appel à des échantillons de séquences vidéo compressés MPEG2. Ces séquences servent de référence à un système de pointage avec apprentissage. Le système proposé est linéaire par morceau. L'algorithme d'apprentissage est le LMS qui signifie Least Mean Square (moyenne des moindres carrés). En comparant les résultats produits par l'outil et les résultats des tests subjectifs, on obtient un coefficient de corrélation de 0,99. En d'autres termes, lorsqu'on analyse les résultats obtenus par l'outil, on remarque une erreur moyenne de 1.7% dans le cas de séquences vidéo compressées MPEG2, pour une gamme de débits allant de 1,5 Mbs à 25 Mbs.
APA, Harvard, Vancouver, ISO, and other styles
17

Grapin, Gérard. "Qualité des eaux usées : de la mesure en continu à l'alerte pollution." Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2004INPL017N.

Full text
Abstract:
Les données de mesure: pH, conductivité, température, potentiel d'électrode, niveau d'eau, fournies par des stations de mesure et d'alerte implantées sur le réseau de collecte de la CUGN (Communauté Urbaine du Grand Nancy) à l'aval de zones à risques, sont analysées en ligne afin de détecter le passage de flux polluants. Sur les différents sites de mesure, les évolutions temporelles des grandeurs pH et conductivité sont modélisées par une approche floue de type multi-modèle à l'aide des grandeurs explicatives température, potentiel d'électrode, niveau d'eau dans le regard de pompage des eaux. Les résultats du modèle utilisé en mode prévisionnel sont comparés aux mesures vraies afin de générer des indicateurs de pollution. L'heure d'un déversement ponctuel est estimée à partir de ses courbes de réponse pH et conductivité modélisées par une suite de réacteurs parfaitement mélangés connectés en cascade (approche systémique du génie des procédés). Le temps de transit ainsi évalué permet d'orienter les premières investigations de terrain pour rechercher l'origine de la pollution afin de prendre toutes les mesures qui s'imposent pour son traitement au niveau de la station d'épuration
Data of pH, conductivity, temperature, redox potential, water level provided by early warning stations set up on the water sewage network of the CUGN (Urban Community of Large Nancy) were treated in order to detect; on line, the passage of polluting flows. On the different sites the temporal evolutions of pH and conductivity are modeled by a fuzzy approach of multi-model type using the explicative variables: temperature, potential of electrode, water level in the manholes. The results of the models are compared with the true measurements in order to generate indicators of pollutions. The hour of a specific discharge is estimated starting from its conductivity, pH response curves modeled bya succession of perfectly mixed reactors connected in cascade (systemic approach). The time of transit thus evaluated makes it possible to direct the first field investigations to seek the origin of pollution in order to take ail decisions, which are essential for its treatment on the level of the water sewage treatment unit
APA, Harvard, Vancouver, ISO, and other styles
18

Lauer, Peccoud Marie-Reine. "Méthodes statistiques pour le controle de qualité en présence d'erreurs de mesure." Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997NICE5136.

Full text
Abstract:
Lorsqu'on cherche a controler la qualite d'un ensemble de pieces a partir de mesures bruitees des grandeurs d'une caracteristique de ces pieces, on peut commettre des erreurs de decision nuisibles a la qualite. Il est donc essentiel de maitriser les risques encourus afin d'assurer la qualite finale de la fourniture. Nous considerons qu'une piece est defectueuse ou non selon que la grandeur g correspondante de la caracteristique est superieure ou inferieure a une valeur g#o donnee. Nous supposons que, compte tenu de l'infidelite de l'instrument de mesure, la mesure m obtenue de cette grandeur est de la forme f(g) + ou f est une fonction croissante telle que la valeur f(g#o) est connue et est une erreur aleatoire centree de variance donnee. Nous examinons d'abord le probleme de la fixation d'une mesure de rejet m de maniere a ce que, pour le tri d'un lot de pieces consistant a accepter ou rejeter chacune selon que la mesure associee est inferieure ou superieure a m, un objectif donne de qualite du lot apres tri soit respecte. Nous envisageons ensuite le probleme de test de la qualite globale d'un lot au vu de mesures pour un echantillon de pieces extrait du lot. Pour ces deux types de problemes, avec differents objectifs de qualite, nous proposons des solutions en privilegiant le cas ou la fonction f est affine et ou l'erreur et la variable g sont gaussiennes. Des resultats de simulations permettent d'apprecier les performances des procedures de controle definies et leur robustesse a des ecarts aux hypotheses utilisees dans les developpements theoriques.
APA, Harvard, Vancouver, ISO, and other styles
19

Kansou, Khaled. "Gestion de la qualité de l’eau : contribution à l’évaluation de la qualité de l’eau en Corse." Corte, 2010. http://www.theses.fr/2010CORT0001.

Full text
Abstract:
L'eau est une matière première exceptionnelle. Elle est essentielle aux hommes, aux animaux et aux végétaux et pour cette raison, elle doit servir d'abord à satisfaire ses besoins essentiels. Considérée longtemps comme une ressource abondante voire illimitée, il semble normal à chacun qu'elle soit gratuite ou presque. L'eau est une des clefs du développement durable, elle présente une importance décisive pour les dimensions sociale, économique et environnementale du développement. La pollution est présente partout car peu de pays, développés ou non, se sont suffisamment souciés de la qualité de l'eau et n'ont pas réussi à limiter sa pollution. Plus encore que les industries et les municipalités, l'agriculture est le principal responsable de la pollution car les engrais et les pesticides ont contaminé les nappes d'eau souterraines et les eaux superficielles dans la quasi-totalité des pays où ils sont utilisés. Cela étant, le volume des déchets des industries et des municipalités a énormément augmenté durant ces dernières décennies. On estime qu'entre deux cents et quatre cents produits chimiques contaminent les cours d'eau dans le monde. Notre travail s'articule autour de deux axes, théorique et empirique. Il s'agit d'étudier la relation entre l'économie et l'environnement et l'influence des changements climatiques, les risques et les dangers et sur la qualité de l'eau. Nous avons pris l'exemple de la Corse pour montrer que la proximité des cours d'eau pour les populations riveraines a un impact sur la qualité de l'eau au même titre que la proximité d'élevages porcins. Plusieurs sites ont fait l'objet de prélèvements sur les composantes de la qualité de l'eau en Corse; les données se présentent sous la forme d'appréciations qualitatives attribuées par des experts. Un modèle de logique floue a été utilisé pour établir une synthèse des données et définir un indice de qualité de l'eau prenant ses valeurs dans l'intervalle [0, 1]. Une analyse économétrique a permis ensuite de mettre à jour les déterminants de la qualité de l'eau
Water is an exceptional raw material as far as it is essential for people, animais and vegetables. Ifs considered for a long time as an unlimited plentiful resource. Some people consider it free or almost free. Water is one of the keys of sustainable development; it presents an important dimensional device for the social, economical and environmental development. Water is essential for human health and for that reason it satisfy human essential needs. Ln our research, we find that I?ollution is presented everywhere. Some developed or none developed countries, cares enough about the quality of water and controllers' pollution. Agriculture is the main reason responsible for pollution, more than the industry and municipalities. Ln sorne countries farmers use, fertilizers, pesticides, contaminated ground-water and superficial water. Agriculture remains the principle source for water pollution but the amount of factories and municipalities' garbage has increased in the last years. We believe that there are two hundred to four hundred chemical products found in water. Ln our research ifs composed of two axes. The first is theoretical, and the second is empirical. The primary one is divided into two chapters: ln. The first, it will concern sustainable development, to study the relation between economy and environ ment, concept of development, influence of climatic changes and inform the international politics. We took the example of Corsica to show that the nearness of watercourses for populations bordering the street has an impact on the quality of water in the same capacity as nearness of porcine animal. Data come in the form of qualitative evaluations allocated by experts. A model of logique floue was used to establish a synthesis of data and define a quality indication of the water taking its stocks interval [0, 1]. An econometric analysis allowed then to update the determiners of the quality of water
APA, Harvard, Vancouver, ISO, and other styles
20

Viollon, Stéphanie. "Influence des informations visuelles sur la caractérisation de la qualité acoustique de l'environnement urbain." Cergy-Pontoise, 2000. http://biblioweb.u-cergy.fr/theses/00CERG0086.pdf.

Full text
Abstract:
Les etudes de l'environnement sonore urbain qui sont realisees sans tenir compte du cadre visuel environnant, perdent si ce n'est en justesse, du moins en richesse. L'objectif de cette recherche est de developper une caracterisation de la qualite acoustique de l'environnement urbain, integrant l'influence effective des informations visuelles sur l'impression auditive. Trois experiences sont menees. La premiere traite specifiquement de la caracterisation de la qualite acoustique de l'environnement urbain, incluant deux tests perceptifs audiovisuels, en conditions reelles et simulees. Un espace factoriel est determine, globalement independant de nos conditions experimentales et decrivant au mieux les variations des jugements de l'environnement sonore urbain. Les deux autres experiences examinent, en conditions audiovisuelles de simulation, specifiquement l'influence des informations visuelles sur l'impression auditive en contexte urbain. L'une examine la dependance du jugement auditif et du cadre visuel (scenes auditives urbaines). L'autre examine l'impact de l'aspect visuel d'un ecran acoustique sur l'impression auditive de son efficacite (bruits de trafic routier). L'influence visuelle se revele significative mais complexe, dependant : - du parametre visuel d'influence, - du type de sons mis en jeu, - de l'echelle de jugement auditif engagee, et - des eventuelles attentes auditives generees par les informations visuelles, peut-etre elles-memes fonction de la procedure de recueil des donnees. En resultat general, si le cadre visuel est plus deplaisant/urbanise, les scenes auditives n'incluant aucune presence sonore humaine, sont jugees plus deplaisantes/stressantes mais tout aussi bruyantes. Si l'ecran acoustique est visuellement plus deplaisant, les bruits de trafic routier sont percus plus stressants. Divers parametres methodologiques sont testes, permettant de degager une methode experimentale adaptee a l'etude des interactions audiovisuelles en contexte urbain.
APA, Harvard, Vancouver, ISO, and other styles
21

Defréville, Boris. "Caractérisation de la qualité sonore de l'environnement urbain : une approche physique et perceptive basée sur l'identification des sources sonores." Cergy-Pontoise, 2005. http://biblioweb.u-cergy.fr/theses/05CERG0275.pdf.

Full text
Abstract:
Le bruit dans nos villes est perçu comme une question de qualité de vie. Il est généralement évalué par la mesure de son niveau sonore. Si cette mesure est représentative d'environnements bruyants caractérisés par des flots continus de véhicules, elle s'avère insuffisante pour caractériser la "couleur" d'une ambiance sonore où différentes sources coexistent. C'est ainsi que la présente étude se propose d'examiner la qualité d'ambiances sonores urbaines du point de vue de leur composition, c'est à dire des sources sonores occurentes, la finalité étant la mise au point d'une méthode d'évaluation automatique d'un environnement sonore urbain. La première partie met en évidence le fait que celles-ci ne sont pas toutes perçues de la même manière et qu'en conséquence leurs évaluations métrologiques doivent être adaptées. Ce travail permet de proposer un indicateur lié au désagrément sonore ; en fonction du lieu, cet indicateur utilise la force sonore de la séquence, mais il prend toujours en compte les caractéristiques des différents sources émergentes. La deuxième partie de l'étude propose deux méthodes pour la mesure de cet indicateur à travers l'identification des sources. Ces outils représentent, in fine, une aide à la gestion d'un environnement sonore de quartier
Noise in cities is perceived as a question of quality of life. It is generally evaluated by the measurement of his sound level. If this measure is representative of noisy environments which are characterised by continuous flow of vehicles, it is insufficient to characterise the "colour" of a urban soundscape where different sources coexist. The first part reveals that sound sources are not perceived the same manner and their metrological evaluation should be adapted consequently. This present work proposes an indicator linked to the unpleasantness of sound. Depending on the place it describes, this indicator sometimes uses the loudness of the sequence but always takes account characteristics of emergent sound of sources. The second part of the study proposes two methods for the automatic calculation of this indicator thanks to the identification of sound sources. This tool represents, in fine, a help to the management of an urban soundscape
APA, Harvard, Vancouver, ISO, and other styles
22

Mantel, Claire. "Bruits temporels de compression et perception de la qualité vidéo : mesure et correction." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00680787.

Full text
Abstract:
Ces dernières années la diffusion vidéo "de salon" a connu trois transitions majeures : la compression vidéo aévolué de la norme MPEG2 à la norme h.264, les écrans à tube cathodique ont disparu du marché des téléviseurs quiest actuellement dominé par les écrans à cristaux liquides (LCD) et pour nir le format haute-définition (1280x720pixels ou 1920x1080) supplante de plus en plus le format SD (576x720). Ces évolutions ont modifié l'importancedes différents types de défauts de compression pour la perception de la qualité d'une vidéo. Les défauts majeursde compression vidéo sont désormais le ou et les défauts temporels. Le terme défaut temporel regroupe ici lavariation temporelle de défauts spatiaux comme l'effet de bloc et des défauts spécifiquement temporels comme lebruit de moustique.Nous nous sommes tout d'abord focalisés sur la correction du bruit de moustique. Le correcteur que nousproposons, le TVIF, est adapté aux trois caractéristiques de ce défaut : faible amplitude par rapport au contenulocal, proximité des contours et variation temporelle. Nous avons évalué l'efficacité de notre correcteur avec desmétriques objectives mais, celles-ci ne permettant pas de conclure sur les performances de notre ltre, nousavons organisé une expérience subjective de qualité. Les données recueillies lors de cette expérience indiquentque les observateurs perçoivent notre filtre comme une amélioration et que la version spatio-temporelle de notrecorrecteur est préférée à sa version spatiale. Reboucler sur les évaluations objectives nous permet de conclure queles métriques objectives ne mesurent pas adéquatement la correction du bruit de moustique, ni l'apport de lacorrection spatio-temporelle par rapport à la correction spatiale.Nous avons ensuite organisé une expérience couplant évaluation de qualité (globale et temporelle) et enregistrementsdes positions oculaires des observateurs. Cette expérience nous permet de spécifier plusieurs pointsutiles pour réaliser une métrique objective de qualité temporelle. Par exemple, le défaut le plus gênant pour laperception de la qualité globale est la variation d'effet de bloc, qui doit donc être la priorité d'une métrique dequalité temporelle. L'analyse des mouvements oculaires des observateurs en tâche libre, tâche de qualité globaleet tâche de qualité temporelle montre, entre autres, que la qualité de la vidéo diffusée n'a pas d'influence visiblesur les endroits regardés par les participants mais influence fortement la durée des fixations.
APA, Harvard, Vancouver, ISO, and other styles
23

Hosseini, Kossar. "Mesure et interprétation du changement d'utilité dérivée d'instruments de qualité de vie psychométriques." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0277/document.

Full text
Abstract:
Dans le domaine de la santé, la mesure d'utilité permet d'exprimer la valeur que peut donner un individu à un état de santé, comprise généralement entre 0 (la mort) et 1 (meilleur état de santé envisageable). L'utilité permet de valoriser simultanément le résultat clinique et son impact sur l'état de santé du patient, et d'exprimer ainsi la qualité de vie liée à la santé. Nous nous sommes intéressés dans ce travail à l'approche indirecte d'estimation d'utilité, consistant à dériver une utilité à partir des échelles psychométriques de mesure de l'état de santé (questionnaires génériques). Cette approche permet de répéter la mesure de l'utilité dans le temps et ouvre des perspectives pour l'analyse du changement d'utilité. Les objectifs étaient de définir un seuil de changement pour l'utilité dérivée des instruments de mesure psychométrique de la qualité de vie, et de prendre en compte dans l'interprétation du seuil la présence des comorbidités ou d'un phénomène de response-shift. Afin de répondre à nos objectifs, nous avons étudié, d'une part, le changement d'utilité mesurée par le SF-6D dans une cohorte de patients atteints d'arthrose des membres inférieurs (cohorte KHOALA) et l'effet des comorbidités sur l'utilité et son changement. D'autre part, nous avons estimé l'utilité de donneur vivant de rein à partir des questionnaires EQ-5D et SF-6D avant et 3 mois après le prélèvement du rein. Un seuil de changement a été estimé et un phénomène de response-shift a été recherché. Les résultats ont montré l'effet délétère des comorbidités sur la mesure de l'utilité chez les patients atteints d'arthrose, et mis en évidence l'importance de la sévérité fonctionnelle de l'arthrose dans l'expression de l'utilité et son changement. Chez les donneurs vivants de rein nous avons mis en évidence une diminution significative de l'utilité à 3 mois, avec une proportion de plus de 30% de donneurs ayant atteint le seuil de détérioration significative. L'estimation du seuil de changement diffère selon la population étudiée, l'instrument de mesure de l'utilité, et la méthodologie appliquée pour définir ce seuil. En conclusion, l'évaluation du changement d'utilité doit tenir compte de l'existence des comorbidités ainsi que de l'adaptation du jugement de valeur que l'individu porte sur son état de santé lorsque celui-ci évolue. La complexité des méthodes psychométriques pour la mesure de l'utilité doit amener à être prudent sur leur prise en compte dans les modèles d'évaluation économique. L'identification d'un seuil pour l'interprétation du changement peut être un élément complémentaire utile dans la démarche d'analyse décisionnelle
In health economic, the concept of utility was used to describe a state of health in patients. The unit value of health state utility ranges between 0, representing "death" state, and 1 representing a "perfect" health state. It is possible to recover through the measurement of utility both the clinical outcome and their impact on the health of the patient, and thus express the quality of life related to health. In this work, we used the indirect approach for estimating utility that is derived from a generic utility scales (quality of life questionnaires). The objectives of this thesis were to define a threshold of change for the utility derived from psychometric instruments measuring quality of life, and to take into account for the change interpretation, the presence of comorbidities or a response-shift phenomenon. We used data from a cohort of patients with osteoarthritis of lower limbs (KHOALA cohort) for estimate the impact of comorbidities in utility measured by the SF-6D its change over 3 years. We are also interested in the particular case of living kidney donors. The utility was estimated by the EQ-5D and SF-6D before and 3 months after kidney donation. A threshold of significant deterioration has been estimated and the presence of a response-shift phenomenon was controlled. The results showed the deleterious effect of comorbidities on utility measurement for patients with lower limbs osteoarthritis, and highlighted the importance of the functional severity of osteoarthritis in the expression of utility and its change over time. Living kidney donors experienced a significant decrease in their utility score in the short term, and more than third of donors have reached the threshold of significant deterioration. The threshold of utility change varies depending on the population studied, the measurement instrument, and the methodology used to define the threshold. In conclusion, the assessment of utility change must take into account the existence of other diseases and the adaptation of the individual on his health state variation. The complexity of measuring individual preferences by psychometric instruments should lead to be careful about introducing them in the economic evaluation. The use of a threshold for the interpretation of utility change can be an additional element in the decision-making process
APA, Harvard, Vancouver, ISO, and other styles
24

Poirier, Pascal. "Outils automatiques d'évaluation de la qualité des données : suivi en temps réel de la qualité de l'eau d'un ruisseau urbain." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25816.

Full text
Abstract:
Lors d’un suivi en temps réel de la qualité de l’eau d’une rivière, une quantité innombrable de données peut être récoltée permettant ainsi une bonne description des dynamiques changeant rapidement. Cependant, des questions s’imposent. Quelle est la qualité des données mesurées en temps réel? Quels sont les effets de données de mauvaise qualité sur les objectifs associés à leur utilisation? Ce mémoire tente de résoudre cette problématique en présentant des outils automatiques d’évaluation de la qualité des données. Ces outils sont généraux et simples, en ce sens qu’ils s’appliquent à différents emplacements (rivière, STEP, égout, etc.) et qu’ils sont basés sur des méthodes univariées faciles à implanter. Suite à l’application de ces outils, la qualité des données est connue et accrue favorisant ainsi l’atteinte des objectifs reliés à un suivi en temps réel. Leur application est démontrée sur des données mesurées lors d’un suivi en temps réel de la qualité de l’eau d’un ruisseau urbain effectué à l’aide de la station monEAU.
During real-time water quality monitoring in river systems, a huge amount of data is produced which allows a better description of the rapidly changing dynamics compared to spot sampling methods. However, what is the quality of the measured data and what are the impacts of poor data quality on the objectives pursued during real-time water quality monitoring? Therefore, this master thesis proposes automatic data quality assessment tools to tackle this issue. These tools are general and simple, which means that they can be applied to any type of water and that they are based on easy-to-implement univariate methods. Following the application of these tools, data quality will be improved and known as such and will allow to better achieve the objectives of a real-time water quality monitoring project. The application of these tools is demonstrated on data collected during real-time water quality monitoring of an urban river performed using a monEAU station.
APA, Harvard, Vancouver, ISO, and other styles
25

Lafrance, Chantal. "Les enregistrements électroencéphalographiques, EEGs, à l'éveil comme mesure de la qualité de l'éveil." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape2/PQDD_0016/NQ53282.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Houmani, Nesma. "Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie." Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00765378.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d'entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée "Entropie personnelle", calculée sur un ensemble de signatures authentiques d'une personne. L'originalité de l'approche réside dans le fait que l'entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d'un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d'une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d'un facteur 2 au minimum) entre les personnes de la catégorie "haute Entropie" (signatures très variables et peu complexes) et celles de la catégorie "basse Entropie" (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l'entropie relative (distance de Kullback-Leibler), dénommée "Entropie Relative Personnelle" permettant de quantifier la vulnérabilité d'une personne aux attaques (bonnes imitations). Il s'agit là d'un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l'analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l'Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l'information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l'évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d'apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l'intérêt de notre mesure d'Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d'Entropie peut être utilisée pour : améliorer la procédure d'enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle.
APA, Harvard, Vancouver, ISO, and other styles
27

Boissonneault, Maxime. "Effets non-linéaires et qualité de la mesure en électrodynamique quantique en circuit." Mémoire, Université de Sherbrooke, 2007. http://hdl.handle.net/11143/5734.

Full text
Abstract:
En optique quantique en cavité, un atome interagit avec un ou plusieurs modes discrets du champ électromagnétique d'une cavité résonante. Les circuits supraconducteurs permettent d'explorer cette physique dans un régime de paramètres différents. On s'intéresse dans ce travail à la physique du système proposé par Blais et al. [1], dans lequel un qubit de charge joue le rôle de l'atome et un résonateur coplanaire remplace la cavité résonante tridimensionnelle. On étudie en particulier le cas où la fréquence de transition de l'atome est très différente de celle de la cavité. Dans cette situation, l'échange d'énergie entre l'atome artificiel et le résonateur est difficile. Ce régime est généralement modélisé par le modèle dispersif, obtenu par une théorie de perturbation au premier ordre. Dans ce modèle, la fréquence de l'atome artificiel qu'est le qubit de charge est modifiée par la présence du résonateur par les effets dits de Lamb et de Stark. Cependant, ce développement linéaire n'est plus valide si l'échange d'énergie est facilité par une grande constante de couplage ou par un nombre élevé de photons dans le résonateur. On s'intéresse ici à développer la théorie de perturbation qui donne le modèle dispersif à des ordres supérieurs. On développe deux modèles simples pour décrire le système en tenant compte des perturbations d'ordre supérieur. Pour le premier modèle, on utilise une transformation unitaire pour découpler le qubit du résonateur. Dans le deuxième modèle, on utilise une approche de type champ moyen pour obtenir des équations similaires aux équations de Bloch en résonance magnétique nucléaire. En étudiant ces deux modèles, on trouve que les photons du résonateur, qui ont une fréquence très éloignée de celle du qubit, agissent comme un bain thermique sur le qubit. On trouve aussi que les taux de relaxation et de déphasage effectifs du qubit sont modifiés par la présence de photons. On montre que ces effets peuvent diminuer le rapport signal sur bruit et ainsi réduire l'efficacité d'une mesure du qubit. On suggère enfin différentes façons de vérifier ces résultats théoriques par l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
28

Auquier, Pascal. "Concepts et mesure de la qualité de vie liée à la santé : exemples et applications." Montpellier 1, 1996. http://www.theses.fr/1996MON1T026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Bluteau, Hélène. "Contribution à l'amélioration de la qualité des mesures sur les machines à mesurer tridimensionnelles : surveillance, diagnostic et correction des défaillances." Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0007.

Full text
Abstract:
Les travaux présentés dans ce mémoire sont centrés sur l'amélioration de la qualité des mesures réalisées sur machine à mesurer tridimensionnelle (MMT) en milieu industriel. En particulier nous nous intéressons au diagnostic et à la correction des défaillances de la chaine de mesure. Dans un premier temps, nous proposons un travail d'expertise des savoir-faire des utilisateurs sous la forme d'une analyse des modes de défaillance et de leur criticité (amdec) des maillons de la chaine de mesure, ainsi qu'une analyse d'un ensemble de procédures qualité industrielles usuelles. Une étude bibliographique des solutions présentées dans la littérature complète l'expertise menée. Suite à ces travaux, nous avons défini la structure et les fonctionnalités d'un superviseur de MMT adapté aux contraintes d'utilisation des MMT en milieu industriel. Nous proposons des indicateurs qualité, ainsi que des procédures adaptées pour leur évaluation. Le superviseur, enrichi avec les indicateurs et procédures expérimentés doit mener a la maitrise de la qualité des mesures réalisées sur MMT. Les indicateurs de qualité calculés et suivis pour la supervision, offrent des perspectives en vue de l'évaluation des incertitudes sur les mesures.
APA, Harvard, Vancouver, ISO, and other styles
30

Guerra, Anne-Sophie. "Métrologie sensorielle dans le cadre du contrôle qualité visuel." Chambéry, 2008. http://www.theses.fr/2008CHAMS037.

Full text
Abstract:
La thèse traite du problème de la maîtrise de la qualité visuelle des produits manufacturés de haute qualité. Nous faisons l'hypothèse que la maîtrise de cette qualité passera encore pour de nombreuses années par un contrôle visuel des produits. Le premier chapitre présente une étude bibliographique des différents éléments relatifs au contrôle qualité en général, et au contrôle visuel en particulier. Le chapitre 2 décrit la démarche générique que nous proposons pour percevoir, puis évaluer une anomalie. Cette démarche distingue de façon formelle la perception d'une anomalie de son evaluation. Nous montrons que cette distinction apporte une bien meilleure compréhension des sources de variabilité dans le contrôle visuel. En partant des démarches largement utilisées dans le cadre de l'analyse sensorielle, notre démarche formalise donc ces deux étapes afin de réduire la variabilité dans la décision de conformité lors d'un contrôle visuel. Le chapitre 3 propose une structuration d'une démarche métrologique ayant pour objectif de garantir, la justesse et la faible variabilité dans le temps et dans l'espace. Notre proposition, basée sur les concepts d'une métrologie dimensionnelle, intègre les spécificités liées à toute mesure sensorielle réalisée par l'homme, et en particulier la part de subjectivité importante qui peut être associée à cette mesure. Partant de l'évaluation d'une seule anomalie, nous décrivons dans le chapitre 4 une démarche permettant de décider de l'acceptation ou du refus d'un produit combinant différentes anomalies sur différentes surfaces. Notre approche, fondée sur la fonction perte de Taguchi, permet de généraliser au contrôle visuel les approches de tolérancement largement utilisées en qualité géométrique des produits. Le chapitre 5 illustre l'application de ces concepts au sein de l'entreprise avec laquelle nous avons collaboré. II propose également une synthèse de gains que peut apporter une telle démarche
The thesis deals with the problem of visual quality control of high quality manufactured products. We make the hypothesis that the control of this quality will be still realized many years by a visual inspection of the products. The first chapter presents a bibliographical study of different elements relating to the quality control in general, and particularly, the visual inspection. The chapter 2 describes the generic approach that we propose to perceive, then evaluate an anomaly. This approach separates in a formal way the perception of an anomaly from its evaluation. We show that this distinction gives a better comprehension of the variability sources in the visual inspection. Based on the approaches very largely used within the framework of the sensory analysis, our approach thus formalizes these two steps in order to reduce the variability in the decision of conformity during a visual inspection. The chapter 3 proposes a structuring metrological approach having for objective to guarantee the accuracy and the reduced variability in time and space. Our suggestion, based on the concepts of a dimensional metrology, integrates the specificities related to any sensory measurement carried out by the man, and in particular the part of significant subjectivity which can be associated to this measurement. Based on the evaluation of only one anomaly, we describe in the chapter 4 an approach allowing to decide acceptance or refusal of a product combining various anomalies on various surfaces. Our approach, based on the Taguchi's loss function, makes it possible to generalize with the visual inspection the approaches of tolerance largely used in geometrical quality of the products. The chapter 5 illustrates the application of these concepts within the company with which we collaborated. It also proposes a synthesis of profits that such an approach can produce
APA, Harvard, Vancouver, ISO, and other styles
31

Aubé, Lucien. "Identification des indicateurs de qualité des interventions en formation sur mesure auprès des organisations." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ32571.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Quintard, Ludovic. "Evaluation de la qualité des dispositifs d'affichage couleur : des évaluations subjectives à la mesure objective." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Quintard-Ludovic/2008-Quintard-Ludovic-These.pdf.

Full text
Abstract:
Cette thèse a été effectuée en collaboration avec le Laboratoire national de métrologie et d’essais(LNE) dans le cadre d’une convention CIFRE. Dans ce travail, nous cherchons à réaliser une métrique objective dédiée à l’évaluation des dispositifs de restitution d’images (les écrans). Pour répondre à cette problématique, nous avons développé un algorithme permettant d’estimer la qualité à partir des qualités du moniteur et celles du Système visuel humain (SVH). L’algorithme développé se décompose en trois blocs. Le premier bloc prend en compte les caractéristiques d’un moniteur (fonction de transfert, gamut) pour modifier une image (envoyée à un moniteur par un dispositif numérique) en une image physique (affichée par le moniteur). Le deuxième bloc de l’algorithme modélise la transformation de l’image physique en une image perceptuelle. Cette modélisation implique la connaissance des principes de fonctionnement du système visuel humain, en particulier le codage d’une information couleur, mais aussi les attributs perceptuels intervenant dans le jugement de la qualité d’une image numérique couleur. Le troisième et dernier bloc a été développé afin d’attribuer une note de qualité à cette image perceptuelle. Une étude subjective de la qualité de cinq différents écrans LCD, faisant intervenir trente participants et conduite sur la base de six critères d’analyse, a été réalisée. Elle a permis de montrer que la teinte, la saturation et le contraste sont les facteurs prépondérants pour juger la qualité des écrans. La métrique développée à partir de ces constatations présente une corrélation satisfaisante avec les données issues de l’évaluation subjective, montrant ainsi sa proximité avec un jugement humain. Cette métrique a également été testée dans le cadre de la problématique de compression JPEG et JPEG2000 où elle s’est montrée également performante. Parmi les perspectives de ce travail, nous pouvons citer l’extension de l’étude à d’autres technologies d’écrans ainsi que la définition de bornes pour les scores de la métrique
This thesis was conducted in cooperation with the Laboratoire National de Métrologie et d’Essais (LNE) within the framework of a CIFRE convention. This work consisted in realising an objective metric dedicated to the assessment of image retrieval devices (screens). To address the underlying issues, we developed an algorithm for estimating quality using the monitor features and those of the Human Visual System. The developed algorithm is made up of three blocks. The first block takes into account the technical features of the monitor (transfer function, gamut, etc. ) to turn a digital image (sent to the monitor using a digital device) into a physical image (displayed by the monitor). The second block of the algorithm models the transformation of the physical image into a perceptual image. This modelling involves familiarity with human visual system operational principles, particularly the encoding of colour information, as well as the perceptual attributes involved in judging a colour digital image quality. The required knowledge is described in chapter 4 of the present thesis. The third and last block was developed to rate the quality of this perceptual image. A subjective study of the quality of 5 different LCD screens involving thirty participants and based on six analysis criteria was performed. It successfully showed that colour, saturation and contrast are major factors on which the screen quality is assessed. The metric developed was based on these findings and shows good correlation with subjective evaluation data, thus showing similarity with human judgement. The metric was also tested in the field of JPEG and JPEG2000 compression with similar efficiency
APA, Harvard, Vancouver, ISO, and other styles
33

Bucumi, Sommer Catherine. "Gestion de la qualité totale et mesure de la performance : examen critique de leurs relations à l'aune des pratiques dans les industries agroalimentaires." Nantes, 2012. http://www.theses.fr/2012NANT4005.

Full text
Abstract:
Dans cette thèse, nous nous proposons d'examiner les relations entre la gestion de la qualité totale et la mesure de la performance dans les industries agroalimentaires. Nous testons un modèle défini a priori sur un échantillon de 91 établissements agroalimentaires établis sur le territoire français. Néanmoins, compte tenu du fait que les études empiriques portant sur les relations étudiées sont peu nombreuses et ne présentent pas toujours des résultats concordants, des analyses supplémentaires ont été menées dans un but exploratoire. Trois principaux résultats émanent de notre analyse. En premier, nous mettons en évidence l'existence des relations entre la GQT et l'utilisation des systèmes multidimensionnels de MP. Nous montrons ainsi que la mise en oeuvre des pratiques de GQT s'accompagne d'une utilisation des systèmes multidimensionnels de MP dans les établissements ayant mis en place la GQT sans nécessairement adopter une des normes de la série ISO 9000. Cette relation semble beaucoup plus expliquée par les indicateurs non financiers que par les indicateurs financiers. De même, c'est dans ces établissements que les orientations « contrôle » et « apprentissage » de la GQT sont positivement et significativement associées aux outils multidimensionnels des outils de MP, mais aussi et surtout aux indicateurs non financiers. Puis, nous identifions des relations positives et significatives entre la GQT et l'usage des outils mesure de la performance. Les résultats révèlent une forte relation positive et significative entre le degré de mise en oeuvre des pratiques de GQT et l'usage joint diagnostique et interactif des outils de MP sur l'ensemble des établissements étudiés. Enfin, le test des hypothèses de médiation révèle que l'usage et la nature des outils de mesure de la performance jouent un rôle important dans la relation entre la GQT et la performance financière et opérationnelle. Nous constatons ainsi l'existence d'une médiation partielle des systèmes multidimensionnels de mesure de la performance et de l'usage diagnostique des outils de mesure de la performance
The aim of this dissertation is to assess the nature and use of performance measurement tools in the context of total quality management. We establish and test a model on a sample of 91 agri-food companies all operating in France. However, given the fact that empirical studies on this topic are scarce and do not always give consistent results, additional analyses are proposed. Three main findings arise from our analyses. First, we highlight the existence of the relationship between TQM and the use of multidimensional performance measurement systems. We show that the implementation of TQM practices is accompanied by a use of multidimensional performance measurement systems for those companies that have adopted one of the ISO 9000 standards. This relationship seems to be much better explained by non-financial indicators than by financial indicators. Similarly, it is in the non-ISO accredited organizations that total quality control and total quality learning are both positively and significantly associated to the multidimensional performance measurement systems and especially to non-financial indicators. Then, we identify a positive and significant relationship between TQM and the use of performance measurement tools. The results show a positive and very signifiant relationship between the degree of implementation of TQM practices and a joint use (diagnostic and interactive) of performance measurement tools. Finally, the test of mediation hypotheses shows that the use and the nature of the performance measurement tools play important roles in the relationship between TQM and organizational performance. When performance measurement tools are introduced in the model, the predictive power of this model increases which demonstrates the importance of these tools. We observe a partial mediation of the multidimensional performance measurement systems and diagnostic use
APA, Harvard, Vancouver, ISO, and other styles
34

Abouzahir, Omar. "Conception d'un outil de mesure et de réduction des coûts de non qualité : application au pilotage des processus industriels." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002197.

Full text
Abstract:
La compétitivité impose une dure loi aux entreprises: l'obligation d'une gestion rigoureuse en éliminant toutes les types de gaspillages. Parmi les causes de gaspillages et donc de non compétitivité, il y a les coûts de non qualité. Des statistiques avancent entre 10 à 20% du chiffre d'affaires. Les coûts de non qualité sont dus à l'ensemble des anomalies, rebuts, retouches, réparation, etc. La réduction de ces coûts est un des axes stratégiques de toute entreprise soucieuse de sa pérennité. Afin de résorber efficacement ces coûts, il est indispensable de commencer d'abord par leur identification et évaluation, car le système comptable normal ne mesure pas ces coûts. En effet les systèmes traditionnels qui calculent les coûts par produit ne permettent pas de déterminer l'effet économique des améliorations introduites par la démarche qualité dans le processus de production. Cette recherche a pour objectif de proposer une méthodologie pour évaluer et réduire les coûts de non qualité. Pour la validation de certaines hypothèses, des expérimentations sont conduites en entreprise. En particulier, un processus industriel continu a été choisi au sein du groupe OCP. Dans une première partie, nous posons la problématique en faisant l'état de l'art sur les démarches COQ, et nous formulons deux hypothèses permettant de répondre à cette problématique. La deuxième partie, intitulée expérimentation vise à valider nos hypothèses sur un cas industriel. A partir des résultats de la démarche expérimentale, nous concluons, en troisième partie en proposant une méthode d'évaluation et de réduction des coûts de non qualité orientée vers les processus.
APA, Harvard, Vancouver, ISO, and other styles
35

Pernetti, Mimma. "Systèmes biologiques pour le monitorage des eaux : aspects d'ingénieur, du laboratoire à la mesure sur le terrain." Nantes, 2004. http://www.theses.fr/2004NANT2119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Boujut, Hugo. "Mesure sans référence de la qualité des vidéos haute définition diffusées avec des pertes de transmission." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14578/document.

Full text
Abstract:
Les objectifs de ce travail de thèse ont été: d’une part de détecter automatique-ment les images gelées dans des vidéos télédiffusées; et d’autre part de mesurer sans référencela qualité des vidéos télédiffusées (IP et DVB-T). Ces travaux ont été effectués dans le cadred’un projet de recherche mené conjointement par le LaBRI et la société Audemat WorldCastSystems.Pour la détection d’images gelées, trois méthodes ont été proposées: MV (basée vecteurde mouvement), DC (basée sur les coefficients DC de la DCT) et SURF (basée sur les pointscaractéristiques SURF). Les deux premières méthodes ne nécessitent qu’un décodage partieldu flux vidéo.Le second objectif était de mesurer sans référence la qualité des vidéos télédiffusées (IP etDVB-T). Une métrique a été développée pour mesurer la qualité perçue lorsque le flux vidéoa été altéré par des pertes de transmission. Cette métrique "Weighted Macro-Block ErrorRate" (WMBER) est fondée sur la mesure de la saillance visuelle et la détection des macro-blocs endommagés. Le rôle de la saillance visuelle est de pondérer l’importance des erreursdétectées. Certaines améliorations ont été apportées à la construction des cartes de saillancespatio-temporelle. En particulier, la fusion des cartes de saillance spatiale et temporelle aété améliorée par rapport à l’état de l’art. Par ailleurs, plusieurs études ont montré que lasémantique d’une scène visuelle avait une influence sur le comportement du système visuelhumain. Il apparaît que ce sont surtout les visages humains qui attirent le regard. C’est laraison pour laquelle nous avons ajouté une dimension sémantique aux cartes de saillancespatio-temporelle. Cette dimension sémantique est essentiellement basée sur le détecteurde visage de Viola Jones. Pour prédire la qualité perçue par les utilisateurs, nous avonsutilisé une méthode par apprentissage supervisé. Cette méthode offre ainsi la possibilité deprédire la métrique subjective "Mean Opinion Score" (MOS) à partir de mesures objectivestelles que le WMBER, PSNR ou SSIM. Une expérience psycho-visuelle a été menée avec 50sujets pour évaluer ces travaux. Cette base de données vidéo Haute-Définition est en coursde transfert à l’action COST Qualinet. Ces travaux ont également été évalués sur une autrebase de données vidéo (en définition standard) provenant de l’IRCCyN
The goal of this Ph.D thesis is to design a no-reference video quality assessment method for lossy net-works. This Ph.D thesis is conducted in collaboration with the Audemat Worldcast Systemscompany.Our first no-reference video quality assessment indicator is the frozen frame detection.Frozen frame detection was a research topic which was well studied in the past decades.However, the challenge is to embed a frozen frame detection method in the GoldenEagleAudemat equipment. This equipment has low computation resources that not allow real-time HD video decoding. Two methods are proposed: one based on the compressed videostream motion vectors (MV-method) and another one based on the DC coefficients from thedct transform (DC-method). Both methods only require the partial decoding of the com-pressed video stream which allows for real-time analysis on the GoldenEagle equipment.The evaluation shows that results are better than the frame difference base-line method.Nevertheless, the MV and the DC methods are only suitable with for MPEG2 and H.264video streams. So a third method based on SURF points is proposed.As a second step on the way to a no-reference video quality assessment metric, we areinterested in the visual perception of transmission impairments. We propose a full-referencemetric based on saliency maps. This metric, Weighted Mean Squared Error (WMSE), is theMSE metric weighted by the saliency map. The saliency map role is to distinguish betweennoticeable and unnoticeable transmission impairments. Therefore this spatio-temporal saliencymaps is computed on the impaired frame. Thus the pixel difference in the MSE computationis emphasized or diminished with regard to the pixel saliency. According to the state of theart, several improvements are brought to the saliency map computation process. Especially,new spatio-temporal saliency map fusion strategies are designed.After our successful attempt to assess the video quality with saliency maps, we develop ano-reference quality metric. This metric, Weighted Macro-Block Error Rate (WMBER), relies on the saliency map and the macro-block error detection. The macro-block error detectionprovides the impaired macro-blocks location in the frame. However, the impaired macro-blocks are concealed with more or less success during the decoding process. So the saliencymap provides the user perceived impairment strength for each macro-block.Several psycho-visual studies have shown that semantics play an important role in visualscene perception. These studies conclude that faces and text are the most attractive. Toimprove the spatio-temporal saliency model a semantic dimension is added. This semanticsaliency is based on the Viola & Jones face detector.To predict the Mean Opinion Score (MOS) from objective metric values like WMBER,WMSE, PSNR or SSIM, we propose to use a supervised learning approach. This approach iscalled Similarity Weighted Average (SWA). Several improvements are brought to the originalSWA.For the metrics evaluation a psycho-visual experiment with 50 subjects has been carriedout. To measure the saliency map models accuracy, a psycho-visual experiment with aneye-tracker has also been carried out. These two experiments habe been conducted in col-laboration with the Ben Gurion University, Israel. WMBER and WMSE performances arecompared with reference metrics like SSIM and PSNR. The proposed metrics are also testedon a database provided by IRCCyN research laboratory
APA, Harvard, Vancouver, ISO, and other styles
37

Rogron, Bertrand. "Qualité et performances de l'image radar dans le domaine complexe." Toulouse 3, 1995. http://www.theses.fr/1995TOU30070.

Full text
Abstract:
Ce document porte sur l'utilisation de l'amplitude et de la phase des images radar a travers deux themes: le premier concerne la qualite de l'image. La scene radar contient des cibles ponctuelles qui permettent d'obtenir la reponse impulsionnelle du systeme avec une precision generalement suffisante. La methode de recherche est entierement automatique et permet d'isoler les ambiguites en azimut. Le niveau de bruit sur l'image est estime en exploitant le caractere blanc de son spectre. Le principe de la mesure repose sur le calcul des premiers termes de la fonction d'autocorrelation du signal complexe en distance, effectue en des regions de l'image de puissances differentes. Le deuxieme concerne l'interferometrie par radar. Dans le domaine de la classification de surfaces agricoles, on utilise generalement les informations de puissance qui sont donnees par le radar a des dates successives. A partir d'un couple d'images du satellite ers1, il est montre que l'interferometrie apporte des informations complementaires, liees aux evolutions des surfaces a petite et a grande echelle. Chaque pixel peut se decomposer en deux parties, coherente et incoherente, ce qui permet de dissocier la puissance des elements stables, de celle des elements instables. Lorsque les elements du sol sont suffisamment stables, il est possible d'utiliser un couple d'images pour ameliorer la resolution en distance jusqu'a un facteur deux. Grace a une modelisation de la prise de vue, on peut connaitre de maniere precise les parametres permettant de construire l'image super-resolue. La technique et les algorithmes sont valides par l'analyse de cibles ponctuelles sur un couple d'images du satellite ers1
APA, Harvard, Vancouver, ISO, and other styles
38

Malaoui, Abdessamad. "Automatisation en température par microcontrôleur d'un banc de mesure ultrasonore : applications au contrôle qualité en agroalimentaire." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11071.

Full text
Abstract:
Ce travail porte sur la mise au point de nouveaux outils (ou l'amélioration d'outils existants), électronique, thermique et informatique pour l'analyse des ondes ultrasonores qui se propagent dans des milieux liquides. Il rassemble les contributions suivantes : - développement d'un nouveau modèle mathématique précis décrivant la vitesse ultrasonore dans l'eau pure en fonction de la température, pour étalonner les montages expérimentaux et estimer des données non mesurées. - utilisation des derniers développements innovants de l'électronique intégrée, programmable, pour la mise au point d'un montage de mesure ultrasonore informatisé, régulé en température par microcontrôleur. - développement d'une plate-forme informatique à l'aide de la programmation G pour visualiser et traiter les résultats sur ordinateur, et des programmes en langage machine pour générer des signaux électriques qui commandent l'électronique de puissance. - réalisation du banc des mesures tests pour étalonner le montage et autres pour caractériser, par la technique ultrasonore, quelques liquides agroalimentaires, en particulier, l'eau de la méditerranée et l'huile d'argan
APA, Harvard, Vancouver, ISO, and other styles
39

Sabadie, William. "CONTRIBUTION A LA MESURE DE LA QUALITE PERÇUE D'UN SERVICE PUBLIC." Phd thesis, Université des Sciences Sociales - Toulouse I, 2001. http://tel.archives-ouvertes.fr/tel-00467913.

Full text
Abstract:
Les réformes successives des services publics ont souligné la nécessité d'améliorer la qualité des services rendus et de mieux prendre en compte les attentes des usagers. Alors que la mesure de la qualité perçue occupe une place centrale dans la démarche d'engagement des services publics, il apparaît nécessaire de s'interroger sur les déterminants de la qualité perçue par les usagers et de développer un outil de mesure associé à ce concept. Les recherches menées dans le champ de l'étude du comportement du consommateur ont mis en exergue le rôle joué par les attentes des clients et les principales dimensions d'évaluation d'un service. Mais ces travaux ne rendent pas compte de la spécificité de la relation entre les usagers et les services publics. Cette recherche s'attache à proposer un cadre d'analyse de l'évaluation des services publics à partir du concept de justice en sciences sociales. Après une conceptualisation de la qualité perçue, le lien qualité perçue-satisfaction a été étudié dans le contexte de services publics redistributif, et industriel et commercial. Une telle approche, intégrant les spécificités du champ des services publics, a permis une meilleure compréhension de la qualité perçue et précise les conditions de la transposition des travaux issus de la sphère privé. Au final, cette recherche propose des instruments de mesure du jugement des usagers. Elle établit les déterminants de la qualité perçue par les usagers et ses conséquences sur leur satisfaction et leur engagement.
APA, Harvard, Vancouver, ISO, and other styles
40

Perrot, Nathalie. "Maîtrise des procédés alimentaires et théorie des ensembles flous." Massy, ENSIA, 1997. http://www.theses.fr/1997EIAA0075.

Full text
Abstract:
La maîtrise de la qualité des produits alimentaires passe par une maîtrise voire optimisation des procédés alimentaires dans un contexte où même si la recherche avance il est difficile de comprendre et représenter les mécanismes mis en jeu. Dans ce cadre, notre propos est d'explorer en quoi la prise en compte des fonctions de décision humaine au travers d'approches mettant en oeuvre la théorie des ensembles flous peuvent être prometteuses. Au delà de cela nous cherchons des réponses nouvelles à des besoins du génie des procédés. Ainsi dans un premier temps, la contribution des ensembles flous aux fonctions préalablement requises pour la maîtrise des procédés alimentaires (mesurer, modéliser, contrôler) est étudiée au travers d'applications sur différents procédés. Dans la thématique de mesure nous montrons que le couplage d'un capteur de couleur à une méthode floue de traitement de l'information permet d'extraire avec pertinence un indicateur de qualité (couleur) proche de celui manipulé par les opérateurs au cours d'un procédé de cuisson. La thématique de modélisation est envisagée au travers d'un exemple de prédiction de cinétiques relatives aux caractéristiques qualité de grains de mais et de riz au cours d'un procédé de séchage. Une approche de représentation de la connaissance experte, utilisant la théorie des ensembles flous, permet d'interpréter les mécanismes réactionnels à un niveau symbolique qui semble bien prendre en compte la complexité des mécanismes réactionnels mis en jeu. La thématique de contrôle est envisagée au travers d'un exemple de régulation d'un procédé agro-alimentaire complexe: la microfiltration tangentielle. Un algorithme flou mettant en oeuvre les fonctions de décision des experts présente de bons résultats de régulation. Dans un deuxième temps, une méthodologie de contrôle en boucle fermée de la qualité de produits alimentaires utilisant les fonctions de décision humaine au travers de la théorie des ensembles flous est proposée et validée sur un procédé de cuisson en biscuiterie (concept de rétroaction qualité). La connaissance experte est appréhendée au travers d'une architecture modulaire implémentée de manière purement logicielle sur automate industriel. Un tel système semble potentiellement intéressant pour coopérer avec l'opérateur et les lois de commande classiques vers une meilleure maîtrise globale de la qualité du produit.
APA, Harvard, Vancouver, ISO, and other styles
41

André, Michel. "Construction de cycles de conduite représentatifs pour la mesure des émissions de polluants des véhicules." Lyon, INSA, 1998. http://www.theses.fr/1998ISALO006.

Full text
Abstract:
La mesure des émissions de polluants des véhicules nécessite la définition de conditions de test et de cycles de conduite représentatifs. Celle-ci nécessite la constitution d'une base d'information sur les conditions réelles d'usage et de fonctionnement des véhicules, par l'instrumentation de véhicules privés utilisés normalement. Selon ces principes, 80 voitures européennes ont été sélectionnées puis instrumentées par quatre laboratoires européens. Globalement, 10000 trajets et 90 000 kilomètres ont été enregistrés. On analyse les conditions de circulation au travers de la courbe de vitesse enregistrée à bord des véhicules, au cours de déplacements élémentaires ou segments cinématiques de taille homogène. Les segments sont décrits par la distribution croisée des vitesses et accélérations instantanées. Une Analyse des Correspondances Binaires suivie d'une classification permet de construire une typologie des conditions de circulation. Avec les mêmes outils, on analyse et établit une typologie des trajets, en fonction des conditions de circulation rencontrées. On construit ensuite deux ensembles de 3 et 8 cycles représentatifs des trajets urbains, routiers et autoroutiers. 30 véhicules à essence, diesel, avec et sans catalyseur sont testés sur banc d'essai en utilisant ces cycles. La mesure des émissions de polluants CO, HC, NOx et CO2 sur les 3 cycles principaux conduit à une sous-estimation par rapport aux résultats obtenus à partir des 8 cycles. Ceci démontre la nécessité d'une description détaillée des conditions de circulation, des conditions non moyennes de fonctionnement pouvant conduire à de fortes surémissions. Des relations entre conditions cinématiques et thermiques et l'incidence du démarrage à froid sur les émissions urbaines montrent la nécessité d'approfondir ce point. Le lien entre conditions de circulation et caractéristiques des véhicules tend à remettre en cause le principe de cycles communs à l'ensemble des véhicules
The measurement of pollutant emissions from vehicles requires the defining of representative test conditions and driving cycles. This last one requires a knowledge of vehicle usage and of their operating conditions. For that, private vehicles are fitted with on-board data acquisition systems, and used normally by their owner. According to these principles, 80 European cars have been selected and monitored by 4 European laboratories. Globally, 10,000 trips and 90,000 km have been recorded. Driving conditions are analysed through the speed recorded on-board the vehicles, during elementary periods, or kinematic segments with homogeneous size. These ones are described by the crossed-distribution of the instant speeds and accelerations. Correspondence Analysis and Clustering allow the defining of a driving conditions typology in 12 classes. The same tools are used to characterise trips as regards the driving conditions encountered. According to these typologies, two sets of 3 and 8 driving cycles are built-up that represent urban, road and motorway trips. 30 gasoline and diesel vehicles, with and without catalysator are tested on a chassis dynamometer using these driving cycles. Emissions values (CO, HC, NOx and CO2 ) measured on the 3 main driving cycles underestimate the results obtained while using the 8 cycles. That highlights the necessity of a detailed description of the driving conditions, as non-average operating conditions can led to high overemissions. Link between thermal and kinematic conditions and the impact of cold start show the necessity to proof this point. Links between driving conditions and vehicles characteristics question the principle of the usage of a unique driving cycle for all the vehicles
APA, Harvard, Vancouver, ISO, and other styles
42

Martin, Chantal. "Conception d'une sonde anti-diffraction et évaluation d'algorithmes en vue de la mesure locale de l'atténuation dans les tissus biologiques." Lyon 1, 1988. http://www.theses.fr/1988LYO1T151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Vaillant, Benoît. "Mesurer la qualité des règles d'association : études formelles et expérimentales." Télécom Bretagne, 2006. http://www.theses.fr/2006TELB0026.

Full text
Abstract:
L'extraction de connaissances à partir de données vise à extraire des motifs contenus dans des entrepôts de données, dont la taille ne cesse de croître. C'est un processus complexe dans lequel plusieurs experts (métier, analyste, informaticien. . . ) doivent coopérer afin de révéler des motifs qui seront évalués selon différents critères : validités, nouveauté, compréhensibilité, exploitabilité, etc. Or, ces dernier critères sont fortement liés au contexte applicatif et peuvent être formulés de différentes manières. De plus, les progrès techniques et méthodologiques permanents permettent de traiter des volumes de données de plus en plus importants. Par voie de conséquence, le nombre de motifs extraits est également de plus en plus grand, sans pour autant qu'ils soient tous valides - bien au contraire. Force est de constater que la validation de connaissances ne peut maintenant plus se faire sans assistance au décideur, ce dernier ayant bien souvent comme tâche la validation des motifs. Afin de permettre de procéder à cette tâche finale de validation lors du processus, un moyen couramment retenu est l'utilisation de fonctions quantifiant numériquement la pertinence des connaissances. De telles fonctions, dites mesures de qualité, mettent en avant une typologie de connaissance donnée, en induisant un ordre sur celles-ci. De nombreuses mesures ont été proposées, chacune étant liée à des situations précises. Nous adressons la problématique de l'évaluation objective de la qualité d'un type de motif particulier, les règlesd'association, par de telles mesures. Considérant que la sélection des « bonnes » règles repose sur l'utilisation d'une mesure adaptée, nous proposons une étude systématique de ces dernières, basée sur une analyse de propriétés formelles, énoncées selon des termes les plus compréhensibles possibles. De cette étude, on produit une classification d'un nombre important de mesures classiques, que nous confrontons à une classification expérimentale, obtenue en comparant les rangements induits par les mesures pour plusieurs jeux de données. L'étude des propriétés classiques et la définition de nouvelles nous a également permis de mettre en avant certaines particularités des mesures. Nous en déduisons un cadre généralisant la plupart d'entre elles. Nous appliquons également deux méthodes d'Aide Multicritère à la Décision afin de résoudre le problème de la sélection des règles pertinentes. La première approche se fonde sur la prise en compte d'un système de préférences exprimé par un expert de données sur les propriétés précédemment définies, en vue d'orienter le choix de mesure(s) adaptée(s) au contexte applicatif. La seconde approche adresse le problème de la prise en compte des valeurs potentiellement discordantes qu'expriment les mesures sur l'intérêt des règles, et construisons une vue agrégée de leur ordonnancement, en prenant en compte les écarts d'évaluation. Ces méthodes sont appliquées à des situations pratiques. Ce travail nous a aussi conduit au développement d'un outil spécifique performant, Herbs. Nous présentons les traitements qu'il permet d'effectuer, tant en termes de sélection de règles, d'analyse du comportement des mesures et de visualisation
Knowledge discovery in databases aims at extracting information contained in data warehouses. It is a complex process, in which several experts (those acquainted with data, analysts, processing specialists, etc. ) must act together in order to reveal patterns, which will be evaluated according to several criteria: validity, novelty, understandability, exploitability, etc. Depending on the application field, these criteria may be related to differing concepts. In addition, constant improvements made in the methodological and technical aspects of data mining allow one to deal with ever-increasing databases. The number of extracted patterns follows the same increasing trend, without them all being valid, however. It is commonly assumed that the validation of the knowledge mined cannot be performed by a decision maker, usually in charge of this step in the process, without some automated help. In order to carry out this final validation task, a typical approach relies on the use of functions which numerically quantify the pertinence of the patterns. Since such functions, called interestingness measures, imply an order on the patterns, they highlight some specific kind of information. Many measures have been proposed, each of them being related to a particular category of situations. We here address the issue of evaluating the objective interestingness of the particular type of patterns that are association rules, through the use of such measures. Considering that the selection of ``good'' rules implies the use of appropriated measures, we propose a systematic study of the latter, based on formal properties expressed in the most straightforward terms. From this study, we obtain a clustering of many commonly-used measures which we confront with an experimental approach obtained by comparing the rankingsinduced by these measures on classical datasets. Analysing these properties enabled us to highlight some particularities of the measures. We deduce a generalised framework that includes a large majority of them. We also apply two Multicriteria Decision Aiding methods in order to solve the issue of retaining pertinent rules. The first approach takes into account a modelling of the preferences expressed by an expert in the field being mined about the previously defined properties. From this modelling, we establish which measures are the most adapted to the specific context. The second approach addresses the problem of taking into account the potentially differing values that the measures take, and builds an aggregated view of the ordering of the rules by taking into account the differences in evaluations. These methods are applied to practical situations. This work also led us to develop powerful dedicated software, Herbs. We present the processing it allows for rule selection purposes, as well as for the analysis of the behaviour of measures and visualisation aspects. Without any claim to exhaustiveness in our study, the methodology We propose can be extended to new measures or properties, and is applicable to other data mining contexts
APA, Harvard, Vancouver, ISO, and other styles
44

Leleu, Henri. "Mesure de la continuité longitudinale dans le champ des soins primaires dans le contexte français." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-00964126.

Full text
Abstract:
La continuité des soins est une caractéristique centrale des soins primaires. Celle-ci représente principalement l'idée d'une relation durable dans le temps entre le patient et son médecin. Elle a été associée dans la littérature à un impact positif sur la qualité des soins, et sur la santé : amélioration de la satisfaction des patients vis-à-vis de leurs soins, réduction du nombre d'hospitalisations et de visites aux urgences. Cependant, la question de la continuité est peu présente dans les réformes françaises des soins primaires à l'inverse de la question de l'accès aux soins. L'objectif de la thèse est de valider un indicateur de la continuité, évaluer la continuité des soins en France, son évolution et son impact sur la santé. L'indicateur pourra fournir un outil de pilotage des soins primaires aux Agences Régionales de Santé (ARS). Celui-ci pourra être utilisé dans le cadre du suivi des schémas régionaux d'organisation des soins ambulatoires afin de garantir le maintien et l'amélioration de la continuité en France.Ce travail s'est appuyé principalement sur les données de l'échantillon généraliste des bénéficiaires. Il s'agit d'un échantillon au 1/97e des données de remboursements de l'assurance maladie, représentatif de la population générale. La continuité a été évaluée à l'aide d'un indice de continuité qui permet d'évaluer la concentration des visites médicales d'un patient avec le même médecin généraliste. Cette mesure est un reflet indirect de la longitudinalité. Après avoir évalué le niveau de continuité en France, l'association de continuité à la mortalité a été testée à l'aide d'un modèle de Cox, en introduisant la mesure de continuité comme une variable dépendante du temps. Dans un deuxième temps, le rôle des facteurs contextuels d'offre de soins et des facteurs individuels sur le niveau de continuité a été testé à l'aide d'un modèle multiniveau. Enfin, les caractéristiques métrologiques de la mesure de continuité des soins ont été testées afin de valider la mesure en tant qu'indicateur.Les résultats montrent que la continuité des soins en France a peu évolué ces dernières années et se maintient à un niveau relativement élevé. Une variation interrégionale existe avec des régions ayant une meilleure continuité des soins et d'autres avec une continuité plus faible. Les analyses montrent par ailleurs que la diminution de la continuité des soins est associée à une augmentation du risque de décès de l'ordre de 4 % en population générale. Le niveau de continuité est associé principalement à des facteurs individuels et aux caractéristiques du médecin. Les facteurs d'offres de soins n'ont qu'un rôle modéré dans la variation de la continuité des soins, même si les résultats confirment l'association négative entre continuité et accès. Enfin, la mesure a des qualités métrologiques suffisantes pour être validées en tant qu'indicateur de qualité.En conclusion, la continuité des soins est associée au niveau de santé de la population. L'évaluation de la continuité dans le contexte français montre un niveau moyen élevé en France, sous doute lié à l'attachement en France au médecin généraliste, mais révèle également des variations interrégionales. Ces variations représentent une marge d'amélioration de la continuité et l'opportunité d'améliorer le niveau de santé de la population. Ainsi, l'utilisation d'outils tels qu'un indicateur de continuité pourrait permettre aux ARS de suivre l'évolution de la continuité et de mesurer l'impact de réforme comme les parcours de patients. La mise en place de stratégie nationale de santé représente une opportunité d'introduire la notion de continuité au cœur des soins primaires.
APA, Harvard, Vancouver, ISO, and other styles
45

Le, May Sylvie. "Mesure et évaluation de la qualité des services anesthésiques selon les perceptions de patients et de chirurgiens." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ60828.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Lagouanelle-Simeoni, Marie-Claude. "Conceptualisation et validation d'une échelle de mesure de qualité de vie liée à la santé chez l'adolescent." Aix-Marseille 2, 2001. http://theses.univ-amu.fr.lama.univ-amu.fr/2001AIX20676.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Gery, Anne. "Qualité des fumées d'incinération de déchets évaluée par mesure de la cytotoxicité sur cellules de type macrophagique." Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Gery.Anne.SMZ9738.pdf.

Full text
Abstract:
Notre objectif est de mettre en place un test qui mesure in situ la toxicité globale des fumées d'incinération de déchets. Pendant une heure, des cellules de type macrophagique sont placées au contact des fumées ; un index de cytotoxicité i. C. Est calculé, en comparant la viabilité des cellules exposées a celle de cellules témoins placées à l'air pur. Les fumées sont échantillonnées dans leur totalité (gaz, aérosols, particules). Elles sont conduites vers une chambre d'exposition qui maintient les cellules dans leurs conditions de culture (37°C, humidité à saturation, 5% Co2). Les cellules sont des monocytes de la lignée thp-1. Cultivées sur des membranes qui les maintiennent à l'interface entre leur liquide nutritif et l'atmosphère environnante, elles survivent aux agressions de l'air grâce à leur équipement biochimique antioxydant. Le test de viabilité cellulaire est base sur le changement de couleur du sel de tétrazolium mtt, du jaune au violet, lors de sa réduction par les cellules viables ; ainsi, la sante globale de la population cellulaire est estimée par simple mesure colorimétrique. Les essais menés au laboratoire ou in situ révèlent : Qu’il existe une relation concentration-effet entre l'i. C. Et les gaz simplesNO2, SO2 ou HCl, ainsi qu'une réponse du test face aux mélanges complexes de gaz de combustion (fumée de tabac) ; Que les cellules sont très sensibles au contact des particules ; il faut donc tenir compte de l'impact des poussières de fumées en plus de celui des gaz ; Que l'i. C. Augmente lors des pics de concentrations relevés dans les fumées, mais qu'il peut aussi croitre alors qu'il n'y en a pas ; cela indique que le test est sensible aux macropolluants comme aux micropolluants. Les tests biologiques ont une grande contribution à apporter aux contrôles de qualité des effluents atmosphériques, car ils détectent la présence de polluants ou de combinaisons de polluants que l'analyse chimique ne mesure pas
Our work consists in developing a global bio-assay to evaluate on-line waste incineration stack gas quality. Total stack gases (gas, aerosols, particles) are sampled from the inside of the stack and flow down into an exposure chamber. Alveolar macrophage-like cells from the THP-1 monocyte strain are prepared in culture dishes that allow their contact with an atmosphere. They are maintain in close contact with incineration stack gases in the exposure chamber providing to the cell culture an humidified 37°C-regulated atmosphere, and react to the global stack gas quality. Using the comparison of exposed cells to blank cells kept in clean air, one can attribute a cytotoxicity rate to the gases. Acolorimetric method gives cell viability : yellow tetrazolium MTT salt solution is reduced into a formazan blue salt by only cells. The lower the rate, the better the quality of the stack gases. Our work shows that : testing the bio-assay on simple gases is essential in order its sensitivity to polluants which may be present in the atmosphere ; the cell response in well correlated with NO2, SO2 or HCl concentration ; cells cultured on membranes on which stack gas dusts were collected show high cytotoxicity rates ; hence the stack gas sampling must preserve dusts transported by the gases from the source tested to the reactive cells ; the cytotoxicity index is related to NO, CO, SO2 and HCl concentrations measured in stack gases, even weakly ; in addition, the index seems to be also sensitive to micropollutants which are not measured here. This global bio-assay may be a good complement to the routine controls performed on stack gases, for it can detect pollutants that physical and chemical controls does even not measure
APA, Harvard, Vancouver, ISO, and other styles
48

Laforge, Albert. "Validation d'un nouvel appareil de mesure ambulatoire de la pression artérielle : Diasys integra." Bordeaux 2, 1996. http://www.theses.fr/1996BOR2M160.

Full text
APA, Harvard, Vancouver, ISO, and other styles
49

Picard, Charles-Florian. "Développement de méthodes et d’outils associant la modélisation numérique et des mesures in situ afin de concilier la qualité de l’air intérieur et l’efficacité énergétique." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS014.

Full text
Abstract:
Connaître la Qualité de l’Air Intérieur (QAI) d’une ambiance est nécessaire pour répondre aux enjeux sanitaires et socio-économiques, liés à l’occupation des bâtiments, qui intéressent aussi bien le domaine public que le domaine privé. Les moyens de mesures de référence, généralement contraignants et coûteux, ne peuvent apporter, à eux seuls, une réponse aux besoins d’information QAI à grande échelle. Cette thèse s’intéresse à l’emploi de deux méthodes alternatives dans ce contexte, qui sont la modélisation et la mesure à bas coût, avec pour objectifs de lever certains freins à leur déploiement. Dans un premier temps, ce manuscrit décrit les développements numériques effectués afin d’enrichir une bibliothèque QAI de modélisation nodale, initiée à EDF R&D. Ceux-ci concernent principalement la modélisation de l’humidité et du dépôt particulaire au sein des ambiances intérieures. Afin d’évaluer la pertinence des choix effectués, ils ont fait l’objet d’un travail de validation par confrontation à des solutions analytiques, à des données expérimentales et à d’autres outils de modélisation. Une des problématiques majeures de ce type de modélisation est le choix des données d’entrée. Celui-ci peut avoir un impact important sur les résultats fournis par la modélisation et la question de leur représentativité se pose. La modélisation de différents cas d’étude monozones ou multizones, des secteurs résidentiel et tertiaire, a mis en évidence les avantages et les limites de l’outil développé vis-à-vis de la qualité des prédictions des concentrations en polluants gazeux et particulaires. Une analyse de sensibilité a permis d’identifier les paramètres clefs responsables de l’incertitude du modèle pour différentes configurations. Dans un second temps, une méthode innovante de mesure des particules, associant plusieurs compteurs de particules à bas coût avec un fonctionnement en nappe, a été développée. Celle-ci a permis de s’attaquer aux problématiques de fiabilité des données et de limite de détection de ces capteurs à bas coût. La conception de prototypes et l’application de la méthode au sein de différentes ambiances ont donné des résultats encourageants. Plusieurs pistes sont alors proposées afin de généraliser et de valider la robustesse de l’approche
Indoor Air Quality (IAQ) knowledge is necessary to address the sanitary and socio-economic issues of this field, in both public and private domains. Laboratory-grade measuring devices are generally burdensome and expensive. Alone, they cannot provide a full response to large-scale IAQ information needs. This work focuses on the use of two alternative methods in this context, which are IAQ modeling and the use of low-cost sensors, with the purpose of removing certain barriers to their deployment. As a first step, this manuscript describes the numerical developments made in order to enrich a library of models for nodal modeling of IAQ, initiated by EDF R&D. The main additions include the modeling of humidity and indoor particle deposition. In order to evaluate the relevance of the choices made, a validation work has been carried out by confronting the IAQ library results with analytical solutions, experimental data and other modeling tools. One of the major issues of this type of modeling method is the complex choice of input data. This step can have a significant impact on the results provided and there is a need to assess their influence. The modeling of various mono-zone or multi-zone case studies, from the residential and tertiary sectors, has highlighted the advantages and the limitations of the developed tool regarding the quality of the predictions of the concentrations of gaseous and particulate pollutants. A sensitivity analysis was carried out to identify the key parameters responsible for model uncertainty in a few configurations. As a second step, an innovative method of particulate matter measurement has been developed, associating several low-cost particle sensors. This approach allowed to tackle the issues of reliability of this kind of sensors and the limitations of their detection capabilities. The design of prototypes and their use in different indoor environments have given promising results. Several developments are then proposed in order to generalize and validate the robustness of this approach
APA, Harvard, Vancouver, ISO, and other styles
50

Moularat, Stéphane. "Etude de la contamination fongique des environnements intérieurs par la détermination et la mesure de traceurs chimiques spécifiques : application à l'hygiène de l'habitat." Université de Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0240.

Full text
Abstract:
L’apparition de maladies chez les occupants d’environnements « moisis » a été très largement décrite dans la littérature. Les effets sur la santé des moisissures et métabolites associés sont nombreux : infections, allergies, toxi-infections, irritations. La prévalence et la sévérité des maladies déclarées chez l’enfant et l’adulte semblent corrélées avec une augmentation des surfaces contaminées dans l’habitat. Cependant, la caractérisation de l’exposition des personnes reste méconnue. L’objet du travail de thèse a essentiellement porté sur le développement de méthodes d’analyse de la qualité microbiologique des milieux, la définition et la validation d’indicateurs de surveillance de cette qualité. Ainsi, cette recherche a porté à la fois sur le développement et l'amélioration des techniques de prélèvement mais également sur la mise au point et l'adaptation de méthodes de dosage et de reconnaissance indirecte, basées en particulier sur la recherche des produits du métabolisme (COV spécifiques) ou de constituants cellulaires spécifiques (Ergostérol, mycotoxines). L’étude des COV d’origine fongique a permis de définir une liste de 18 traceurs chimiques pertinents associés à un développement fongique. A partir de l’étude de ces composés, nous avons établi un indice de contamination fongique des locaux. Des prélèvements in situ réalisés dans 12 habitations ont permis la validation de cet indice. Par ailleurs, une méthodologie originale de quantification de l’exposition aux moisissures par l’évaluation de la biomasse et des mycotoxines aéroportées a été proposée. Le taux de transfert matériau-air d’une mycotoxine (la stérigmatocystine) a également été étudié
Disease occurrence in mouldy environments is very widely described in the literature. Health effects of moulds and associated metabolites are numerous: infection, allergy, toxi-infection, irritations. Prevalence and severity of declared diseases in the childs and adults seem correlated with an increase of indoor contaminated surfaces. However, the characterization of occupant exposure remains underestimated. The object of this work is essentially focused on the development of analytical methods to determine microbiological indoor quality, the definition and validation of survey indicators. This research is thus both aimed at the development and improvement of sampling techniques and also on the conception and adaptation of direct and indirect measurements methods of metabolism products ( Specific VOC) or of specific cellular components (Ergosterol, mycotoxins). The study of VOC of fungus origin enabled the definition of relevant chemical tracers associated with fungus development. >From these compounds, we established an index of fungus contamination in the indoor environments. Samplings realized in 12 houses allowed the validation of this index. Besides, an original methodology of quantification of mould exposure was proposed taking into account the evaluation of biomass and airborne mycotoxins. The transfer rate of material-air of a mycotoxin (the sterigmatocystin) was also studied
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography