Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Indicateurs de qualité des données.

Дисертації з теми "Indicateurs de qualité des données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Indicateurs de qualité des données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Maddi, Abdelghani. "La quantification de la recherche scientifique et ses enjeux : bases de données, indicateurs et cartographie des données bibliométriques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD020/document.

Повний текст джерела
Анотація:
La question de la productivité et de la « qualité » de la recherche scientifique est l’une des problématiques centrales du monde économique et social du 21e siècle. Car la recherche scientifique, source d’innovations dans tous les domaines, est considérée comme la clé du développement économique et de compétitivité. La science doit également contribuer aux défis sociétaux définis dans les programmes cadre européens (H2020) par exemple, tels que la santé, la démographie et le bien-être. Afin de rationaliser les dépenses publiques de recherche et d’innovation ou encore orienter les stratégies d’investissement des bailleurs de fonds, plusieurs indicateurs ce sont développés pour mesurer les performances des entités de recherche. Désormais, nul ne peut échapper à l’évaluation, à commencer par les articles de recherche, en passant par les chercheurs, jusqu’aux institutions et aux pays (Pansu, 2013, Gingras, 2016). Faute de manque de recul méthodologique, les indicateurs quantitatifs sont parfois mal utilisés en négligeant tous les aspects liés à leur méthode de calcul/normalisation, ce qu’ils représentent ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Cette situation risque d’avoir des conséquences désastreuses sur le plan scientifique et social. Notre travail envisage d’examiner les outils de la bibliométrie évaluative (indicateurs et bases de données) afin de mesurer les enjeux liés à l’évaluation quantitative des performances scientifiques. Nous montrons au travers de cette recherche que les indicateurs quantitatifs, ne peuvent jamais être utilisés à eux seuls pour mesurer la qualité des entités de recherche étant donnée les disparités des résultats selon les périmètres d’analyse, les problèmes ex-ante liés aux caractéristiques individuelles des chercheurs qui affectent directement les indicateurs quantitatifs, ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Pour une évaluation responsable, il est impératif d’accompagner les mesures quantitatives par une appréciation qualitative des pairs. Par ailleurs, nous avons également examiné l’efficacité des mesures quantitatives pour des fins de compréhension de l’évolution des sciences et la formation des communautés scientifiques. Notre analyse appliquée sur un corpus de publications traitant la thématique de la crise économique nous a permis de montrer à la fois les auteurs et courants de pensée dominants, ainsi que l’évolution temporelle des termes utilisés dans cette thématique
The issue of productivity and the "quality" of scientific research is one of the central issues of the 21st century in the economic and social world. Scientific research, source of innovation in all fields, is considered the key to economic development and competitiveness. Science must also contribute to the societal challenges defined in the Framework Programmes for Research and Technological Development (H2020) for example, such as health, demography and well-being. In order to rationalize public spending on research and innovation or to guide the investment strategies of funders, several indicators are developed to measure the performance of research entities. Now, no one can escape evaluation, starting with research articles, researchers, institutions and countries (Pansu, 2013, Gingras, 2016). For lack of methodological comprehension, quantitative indicators are sometimes misused by neglecting the aspects related to their method of calculation / normalization, what they represent or the inadequacies of the databases from which they are calculated. This situation may have disastrous scientific and social consequences. Our work plans to examine the tools of evaluative bibliometrics (indicators and databases) in order to measure the issues related to the quantitative evaluation of scientific performances. We show through this research that the quantitative indicators, can never be used alone to measure the quality of the research entities given the disparities of the results according to the analysis perimeters, the ex-ante problems related to the individual characteristics of researchers who directly affect the quantitative indicators, or the shortcomings of the databases from which they are calculated. For a responsible evaluation, it is imperative to accompany the quantitative measures by a qualitative assessment of the peers. In addition, we also examined the effectiveness of quantitative measures for the purpose of understanding the evolution of science and the formation of scientific communities. Our analysis, applied to a corpus of publications dealing the economic crisis, allowed us to show the dominant authors and currents of thought, as well as the temporal evolution of the terms used in this thematic
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Pekovic, Sanja. "Les déterminants et les effets des normes de qualité et d'environnement : analyses microéconométriques à partir de données françaises d'entreprises et de salariés." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00592480.

Повний текст джерела
Анотація:
Ces dernières décennies ont vu l'émergence et le développement de plusieurs pratiques managériales ayant rapport à la qualité et à l'environnement. Néanmoins, l'analyse des raisons de l'adoption de ces pratiques managériales par les entreprises et de leurs effets sur les entreprises et les salariés a été assez peu étudiée par les économistes. Cette thèse contribue à la littérature empirique sur les pratiques managériales liées à la qualité et à l'environnement dans les entreprises en France. Elle est construite autour de trois thèmes majeurs : (1) l'analyse des déterminants d'adoption de ces pratiques managériales, (2) l'étude de leur impact sur des indicateurs de performance d'entreprises et (3) l'étude de leur impact sur des mesures liées aux salariés. La thèse s'articule autour de ces trois axes de recherche en trois parties.Dans la première partie de la thèse, nous présentons les pratiques managériales de qualité et d'environnement, en se concentrant plus particulièrement sur les normes de qualité ISO 9000 et les normes environnementales ISO 14000. Nous étudions les déterminants de l'adoption des ces normes de qualité et d'environnement. Nous montrons dans un premier temps que les déterminants de l'adoption des normes de qualité sont différents dans les secteurs de l'industrie et des services, plus précisément du point de vue de la stratégie interne de ces entreprises (amélioration de la qualité, réduction des coûts et innovation). En revanche, certaines caractéristiques d'entreprises (taille, appartenance à un groupe financier, expérience avec d'autres normes) et des caractéristiques décrivant la stratégie externe des entreprises (niveau d'exportation et satisfaction des clients) ont le même effet dans l'adoption de ces normes dans les deux secteurs. Dans un second temps, nous analysons les déterminants de l'adoption de la norme ISO 14001 et de l'Engagement de Progrès dans des entreprises de l'industrie chimique. Nous montrons que les deux systèmes analysés ont des déterminants différents : d'un côté, les principaux déterminants de l'adoption de la norme ISO 14001 sont la taille de l'entreprise, l'expérience avec d'autres normes, obligations d'information et la localisation géographique des clients et d'un autre côté, les principaux déterminants de l'Engagement de Progrès sont la pression réglementaire, avoir rencontré des problèmes environnementaux dans le passé et prévoir des risques environnementaux futurs.Dans la deuxième partie de la thèse, nous analysons si les normes de qualité et d'environnement conduisent les entreprises à de meilleures performances, en utilisant une palette riche d'indicateurs de performance d'entreprises. Nous montrons que les normes de qualité ont un impact positif sur le chiffre d'affaires et certains indicateurs de performance d'innovation et de productivité. En revanche, elle n'ont pas d'effet sur le profit et sur d'autres mesures de performance d'innovation. Concernant les normes environnementales, nous montrons qu'elles améliorent le chiffre d'affaires et les pratiques de recrutement des personnels qualifiés et des personnels non qualifiés, mais n'ont pas d'impact sur le profit des entreprises. Enfin, notre investigation montre que le fait de mettre en place simultanément des normes de qualité et d'environnement améliore plus fortement les performances des entreprises par rapport à l'adoption séparée de ces normes.La troisième partie de la thèse étudie les effets des normes de qualité et d'environnement sur des mesures liées aux salariés. Les normes de qualité augmentent les risques d'accident, mais n'ont pas d'effet sur les accidents de travail entraînant un arrêt. Concernant les normes environnementales, nous montrons qu'elles améliorent significativement les conditions de travail à travers la diminution des accidents. De plus, les salariés qui travaillent dans des entreprises qui adoptent des normes environnementales considèrent que leur travail est davantage utile pour la société et ils ressentent une meilleure reconnaissance de leur travail. Ainsi, les normes environnementales augmentent le sentiment de bien-être des salariés. Nous montrons également que les salariés travaillant dans des entreprises ayant adopté des normes environnementales ne se déclarent pas plus impliqués dans leur travail et pourtant font davantage d'heures supplémentaires non rémunérées que les salariés d'entreprises n'ayant pas pris d'engagements similaires en matière de protection de l'environnement.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Pekovic, Sanja. "Les déterminants et les effets des normes de qualité et d’environnement : analyses microéconométriques à partir de données françaises d’entreprises et de salariés." Thesis, Paris Est, 2010. http://www.theses.fr/2010PEST3007/document.

Повний текст джерела
Анотація:
Ces dernières décennies ont vu l'émergence et le développement de plusieurs pratiques managériales ayant rapport à la qualité et à l'environnement. Néanmoins, l'analyse des raisons de l'adoption de ces pratiques managériales par les entreprises et de leurs effets sur les entreprises et les salariés a été assez peu étudiée par les économistes. Cette thèse contribue à la littérature empirique sur les pratiques managériales liées à la qualité et à l'environnement dans les entreprises en France. Elle est construite autour de trois thèmes majeurs : (1) l'analyse des déterminants d'adoption de ces pratiques managériales, (2) l'étude de leur impact sur des indicateurs de performance d'entreprises et (3) l'étude de leur impact sur des mesures liées aux salariés. La thèse s'articule autour de ces trois axes de recherche en trois parties.Dans la première partie de la thèse, nous présentons les pratiques managériales de qualité et d'environnement, en se concentrant plus particulièrement sur les normes de qualité ISO 9000 et les normes environnementales ISO 14000. Nous étudions les déterminants de l'adoption des ces normes de qualité et d'environnement. Nous montrons dans un premier temps que les déterminants de l'adoption des normes de qualité sont différents dans les secteurs de l'industrie et des services, plus précisément du point de vue de la stratégie interne de ces entreprises (amélioration de la qualité, réduction des coûts et innovation). En revanche, certaines caractéristiques d'entreprises (taille, appartenance à un groupe financier, expérience avec d'autres normes) et des caractéristiques décrivant la stratégie externe des entreprises (niveau d'exportation et satisfaction des clients) ont le même effet dans l'adoption de ces normes dans les deux secteurs. Dans un second temps, nous analysons les déterminants de l'adoption de la norme ISO 14001 et de l'Engagement de Progrès dans des entreprises de l'industrie chimique. Nous montrons que les deux systèmes analysés ont des déterminants différents : d'un côté, les principaux déterminants de l'adoption de la norme ISO 14001 sont la taille de l'entreprise, l'expérience avec d'autres normes, obligations d'information et la localisation géographique des clients et d'un autre côté, les principaux déterminants de l'Engagement de Progrès sont la pression réglementaire, avoir rencontré des problèmes environnementaux dans le passé et prévoir des risques environnementaux futurs.Dans la deuxième partie de la thèse, nous analysons si les normes de qualité et d'environnement conduisent les entreprises à de meilleures performances, en utilisant une palette riche d'indicateurs de performance d'entreprises. Nous montrons que les normes de qualité ont un impact positif sur le chiffre d'affaires et certains indicateurs de performance d'innovation et de productivité. En revanche, elle n'ont pas d'effet sur le profit et sur d'autres mesures de performance d'innovation. Concernant les normes environnementales, nous montrons qu'elles améliorent le chiffre d'affaires et les pratiques de recrutement des personnels qualifiés et des personnels non qualifiés, mais n'ont pas d'impact sur le profit des entreprises. Enfin, notre investigation montre que le fait de mettre en place simultanément des normes de qualité et d'environnement améliore plus fortement les performances des entreprises par rapport à l'adoption séparée de ces normes.La troisième partie de la thèse étudie les effets des normes de qualité et d'environnement sur des mesures liées aux salariés. Les normes de qualité augmentent les risques d'accident, mais n'ont pas d'effet sur les accidents de travail entraînant un arrêt. Concernant les normes environnementales, nous montrons qu'elles améliorent significativement les conditions de travail à travers la diminution des accidents. De plus, les salariés qui travaillent dans des entreprises qui adoptent des normes environnementales considèrent que leur travail est davantage utile pour la société et ils ressentent une meilleure reconnaissance de leur travail. Ainsi, les normes environnementales augmentent le sentiment de bien-être des salariés.Nous montrons également que les salariés travaillant dans des entreprises ayant adopté des normes environnementales ne se déclarent pas plus impliqués dans leur travail et pourtant font davantage d'heures supplémentaires non rémunérées que les salariés d'entreprises n'ayant pas pris d'engagements similaires en matière de protection de l'environnement
The scope and magnitude of changes occurring in business today has led to great interest in and widespread adoption of Quality and Environmental Management approaches. However, despite their prevalence, efforts at understanding the motives for their adoption, as well as their effects on firm and employee outcomes, are still in their infancy. This PhD dissertation provides useful theoretical and empirical contributions to three research topics dealing with Quality and Environmental Management approaches in the French institutional framework: (1) the determinants of their adoption, (2) their impact on firm outcomes and (3) their impact on employee outcomes. These three aspects make up the three parts of this PhD thesis.In part I, we define and characterise quality and environmental approaches with a special focus on ISO 9000 Quality Management standards and ISO 14000 Environmental Management standards. Furthermore, we empirically examine the determinants of quality and environmental standards adoption. Our findings reveal that the determinants of quality standards significantly differ between manufacturing and service firms, particularly when we examine features of the internal strategy of those firms (quality improvement, cost reduction and innovation). However, we have also obtained evidence which indicates that the characteristics of firms (firm size, corporate status and previous experience with similar standards) and features of their external strategy (export levels and customer satisfaction) play a significant role in quality standards adoption across both the manufacturing and service sectors. Moreover, we empirically investigate the determinants of chemical firms' registration for the ISO 14001 standard or the Responsible Care program. We show that most determinants are different for the two systems analysed: while firm size, previous experience with similar standards, information disclosure requirements and customer location are major determinants of ISO 14001 standard registration, regulatory pressure, past environmental problems and future risks are the main drivers of Responsible Care registration.In part II, we empirically investigate whether quality and environmental standards are related to better firm performance using various sets of performance measures. The evidence indicates that quality standards positively influence turnover and specific indicators of innovation performance and productivity, but have no impact on profit and some other innovation performance measures. Based on our empirical findings, we conclude that while environmental standards improve turnover and recruitment of both professional and non professional employees, they have no effect on profit. Moreover, the research shows that implementing both quality and environmental standards is likely to better enhance firm outcomes than implementing only one standard.Part III is focused on the effect of quality and environmental standards on employee outcomes. The estimation results show that quality standards increase the risk of employee accidents although more specifically they are ineffective on working accidents that lead to sick leave. On the other hand, our results lead to the conclusion that environmental standards add significantly to the enhancement of working conditions, via the reduction of accidents. Furthermore, the obtained evidence shows that environmental standards seem to improve employee well-being. More precisely, employees working for firms that are certified for an environmental standard report greater feelings of usefulness about their job and declare that they are more often fairly valued in their jobs. The evidence also shows that employees working for environmentally certified firms do not claim to be significantly more involved in their job but they are more likely, ceteris paribus, to work uncompensated for sup plementary work hours than “non green workers”
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Januel, Jean-Marie. "Les données de routine des séjours d'hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d'indicateurs de la sécurité des patients." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00690802.

Повний текст джерела
Анотація:
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d'indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d'indicateurs de la sécurité des patients - les Patient Safety Indicators (PSIs) - par l'Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d'établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l'utilisation d'autres sources de données pour les valider (i.e., données de registre), ainsi que l'utilisation de modèles d'ajustement utilisant l'index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Richa, Jean Raphaël. "Amélioration de l'ingénierie des données dans les environnements connectés grâce à la détection de la propagation et de l'obsolescence des données." Electronic Thesis or Diss., Pau, 2024. http://www.theses.fr/2024PAUU3077.

Повний текст джерела
Анотація:
La croissance incessante des technologies numériques a renforcé les capacité à détecter, visualiser, analyser et gérer de manière autonome l'environnement qui nous entoure. Intelligent et plus connecté est la tendance dominante au sein du métavers émergent, où des environnements connectés sont conçus pour recueillir d'énormes quantités de données. Ces environnements contribuent à une meilleure compréhension des activités humaines, améliorent la qualité de vie et favorisent la durabilité. Cette thèse introduit deux concepts clés - le continuum de zones et l'obsolescence des données - visant à approfondir la sensibilisation aux environnements connectés en expliquant comment les données se déplacent entre les zones et en détectant quand les données deviennent pertinentes dans leur contexte. En abordant ces aspects souvent négligés, nous visons à améliorer l'interprétation et la gestion des données dans les environnements connectés.Cette thèse aborde quatre défis clés : (1) concevoir un modèle de données hautement expressif qui capture efficacement les composants essentiels des environnements connectés, y compris les zones d'accueil, les dispositifs intelligents et leurs réseaux de capteurs associés ; (2) établir un mécanisme pour identifier et tracer comment les données se propagent entre différentes zones ; (3) proposer une approche à grande échelle pour détecter l'obsolescence des données tout en tenant compte de l'ensemble de l'environnement ; et (4) traiter la nature dynamique des environnements connectés, telle que la mobilité des dispositifs, les pannes et les changements dans les configurations de zone (par exemple, fusionner plusieurs zones ou diviser une zone en plusieurs).Pour relever ces défis, nous proposons d'abord le modèle de données HSSN+ pour représenter de manière résiliente les éléments principaux dans les environnements connectés.Ensuite, en nous appuyant sur ce modèle, nous présentons deux cadres étroitement liés. Le premier est le cadre de calcul de continuité de zones pour les environnements connectés, qui formalise la notion de continuité de zones et permet de comprendre comment les données circulent entre les zones. Le second est le cadre de détection de l'obsolescence des données dans les environnements connectés, qui fournit une méthode structurée d'identification et de calcul de l'obsolescence des données sur la base de mesures de qualité prédéfinies.Les deux cadres permettent un contrôle et une compréhension efficaces de tous les environnements connectés
The relentless expansion of digital technologies has enhanced the capabilities of collecting, visualizing, analyzing, and autonomously managing the environment surrounding us.Intelligent and increasingly connected is the prevailing trend within the rising metaverse, where connected environments are driven to gather a plethora of data.These environments contribute to a better understanding of human activities, improve quality of life, and ease paths for sustainability.This thesis introduces two pivotal concepts - zone continuum and data obsolescence - furthering awareness of connected environments by explaining how data crosses between zones and detecting when data becomes irrelevant with respect to its environment.By addressing these overlooked aspects, we aim to improve data interpretation and management within connected environments.This thesis addresses four key challenges: (1) designing a deep and expressive data model that effectively captures the core components of connected environments, such as hosting zones, smart devices, and their corresponding sensor networks; (2) establishing a mechanism to discover and trace how data propagates between different zones; (3) proposing a large-scale approach to detect data obsolescence while considering the entire environment; and (4) handling the dynamic nature of the CE that could be illustrated by the mobility and failure of the devices, as well as modifications in zone configurations (e.g., combining multiple zones into one or dividing a single zone into several).To address these challenges, we first propose the HSSN+ data model, which underpins a resilient representation of the elements in connected environments.Consequently, in light of this model, we put forward two interconnected frameworks. The first one is the Zone Continuum Computation for Connected Environments (ZCCCE) framework that formalizes the zone continuum concept and enables to understand how data moves between zones. The second one is the Data Obsolescence Detection in Connected Environments (DODCE) framework which offers a structured approach to identify and compute the data obsolescence based on predefined quality indicators.These two frameworks provide opportunities for effective control and understanding in connected environments
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Januel, Jean-Marie. "Les données de routine des séjours d’hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d’indicateurs de la sécurité des patients." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10355/document.

Повний текст джерела
Анотація:
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d’indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d’indicateurs de la sécurité des patients – les Patient Safety Indicators (PSIs) – par l’Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d’établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l’utilisation d’autres sources de données pour les valider (i.e., données de registre), ainsi que l’utilisation de modèles d’ajustement utilisant l’index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays
Assessing safety among hospitalized patients is a major issue for health services. The development of indicators to measure adverse events related to health care (HAE) is a crucial step, for which the main challenge lies on the performance of the data used for this approach. Based on the limitations of the measurement in terms of reproducibility and on the high cost of studies conducted using medical records audit, the development of Patient Safety Indicators (PSI) by the Agency for Healthcare Research and Quality (AHRQ) in the United States, using codes from the clinically modified 9th revision of the International Classification of Diseases (ICD) shows interesting prospects. Our work addressed five key issues related to the development of these indicators: nosological definition; feasibility and validity of codes based algorithms; quality of medical diagnoses coding using ICD codes, comparability across countries; and possibility of establishing a benchmark to compare these indicators. Some questions remain, and we suggest several research pathways regarding possible improvements of PSI based on a better definition of PSI algorithms and the use of other data sources to validate PSI (i.e., registry data). Thus, the use of adjustment models including the Charlson index, the average number of diagnoses coded and a variable of the positive predictive value should be considered to control the case-mix variations and differences of quality of coding for comparisons between hospitals or countries
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Chelil, Samy. "Assimilation de données pour améliorer les modèles de qualité de l'eau : vers un indicateur de pression azotée." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS440.

Повний текст джерела
Анотація:
L’exposition de la ressource en eau naturelle (cours d’eau, nappe souterraine) à la pollution azotée diffuse dans un contexte agricole est due essentiellement à la surfertilisation des parcelles agricoles à des fins d’amélioration du rendement des cultures. Malgré des efforts considérables menés à différentes échelles pour optimiser les pratiques culturales, le surplus azoté du sol présente un risque élevé de lixiviation des nitrates vers les milieux aquatiques notamment en début de la saison hivernale. En effet, l’absence des cultures piège à nitrate (CIPAN) en cette période, la forte minéralisation du sol souvent laissé à nu en été, et la gestion peu maitrisée des apports azotés en printemps augmentent la quantité d’azote piégé en faible profondeur du sol aggravant, ainsi, son exportation vers l’extérieur du système de drainage avec l’arrivée des premières pluies hivernales. Ce travail de thèse vise à développer un indicateur de pression azoté basé sur la modélisation conceptuelle des transferts de nitrate en parcelles agricoles artificiellement drainées. Dans un premier temps, le modèle conceptuel NIT-DRAIN (intégrant sept paramètres d’entrée) a été développé, optimisé et validé pour simuler la lixiviation des nitrates à l’exutoire des bassins versants agricoles artificiellement drainés. Puis, sa robustesse spatiotemporelle a été évaluée en utilisant des données de concentration en nitrates mesurées à des pas de temps fins (horaire, journalier) sur trois sites hétérogènes en terme de superficie et de pratiques agricoles (La Jaillière, 1 ha ; Chantemerle, 36 ha ; Rampillon, 355 ha). Notons que seuls les paramètres du modèle ainsi que le débit de drainage sont nécessaires pour estimer les reliquats azotés en entrée d’hiver (REH) sous réserve de disponibilité des observations de concentration en nitrate à l’exutoire du bassin versant agricole étudié. Deux méthodes d’analyse de sensibilité (locale et globale) ont été implémentées afin de déterminer l’influence des paramètres du modèle sur les concentrations en nitrates (sortie du modèle). Les résultats indiquent que les paramètres responsables de la vitesse de transfert des nitrates ‘vl’ et du partage de la quantité initiale d’azote présent dans le sol ‘α’, impactent de manière significative les sorties du modèle. La technique d’assimilation de données variationnelle (4D-Var) a été implémentée au modèle NIT-DRAIN afin d’améliorer l’estimation du REH et plus généralement de l’évolution temporelle du stock d’azote dans le sol à partir d’un échantillonnage des concentrations en nitrate à l’exutoire du réseau de drainage. Plusieurs fréquences d’échantillonnage ont été sélectionnées (ex. horaire, journalière, mensuelle, trimestrielle) afin d’évaluer leur impact sur les estimations du REH. Ainsi, il a été démontré que l’erreur sur l’estimation du REH devient conséquente à partir d’une fréquence d’échantillonnage mensuelle. Finalement, la performance du modèle de simulation de drainage (SIDRA-RU) a été étudiée en perspective d’un futur couplage avec le modèle nitrate (NIT-DRAIN). Pour ce faire, l’adjoint du modèle SIDRA-RU a été généré à l’aide de TAPENADE (outil de différentiation automatique) afin d’implémenter la méthode d’assimilation de données variationnelle. A terme, le modèle NIT-DRAIN utilisera comme donnée d’entrée les simulations du débit de drainage obtenues par le modèle SIDRA-RU à la place des observations
Non-point sources of nitrogen pollution in the agricultural context are mainly due to the over-fertilization of agricultural fields for crop yield improvement. Regardless of the considerable efforts made at various levels to optimize the cultural management practices, the nitrogen surplus in the soil may constitute a high potential for nitrate leaching towards freshwater resources, especially at the beginning of the winter season. Indeed, the lack of catch crops during this period, the high soil mineralization levels (often left bare in summer and fall seasons), and the uncontrolled nitrogen management practices increase the soil nitrogen pool, leading to extreme nitrate exportations following the first winter precipitations. This thesis work aims to develop a new nitrate index based on conceptual modeling of nitrate transfer through agricultural subsurface drained soils. First, the conceptual NIT-DRAIN model was developed, optimized, and validated to simulate nitrate leaching through agricultural subsurface drained catchments. Then, its spatiotemporal robustness was assessed based on observed nitrate concentrations data at different time steps (hour, days), collected at three agricultural fields (La Jaillière, 1 ha; Chantemerle, 36 ha; Rampillon, 355 ha). One can note that only the seven input parameters and drainage discharge data are needed to estimate the remaining pool of nitrate at the beginning of the winter season (RNBW) as function of the measured nitrate concentrations at the subsurface drainage outlet. Two adjoint sensitivity analyses (local and global) have been implemented to determine the influence of the model parameters on the nitrate concentrations (model output). Results indicate that nitrate transfer velocities (vl) and the nitrogen-sharing factor (α) parameters show a significant impact on the model output. The variational data assimilation method (4D-Var) has been implemented on the NIT-DRAIN model to enhance the RNBW estimations and the temporal evolution of the soil nitrogen pool. In addition, an ensemble of sampling frequency of nitrate concentration observations has been considered (e.g., hour, day, month, quarter) to assess their impact on the RNBW estimations. Thus, it has been shown that RNBW estimation errors become substantial starting from a monthly sampling of nitrate concentrations data. Finally, the performance of the drainage simulation model (SIDRA-RU) has been evaluated in the prospect of a future coupling with the nitrate model (NIT-DRAIN). Hence, the adjoint code of the SIDRA-RU model has been generated using the automatic differentiation tool TAPENADE to facilitate the implementation of the variational data assimilation method. In the near future, we seek to avoid the need for the observed drainage discharge used as input of the NIT-DRAIN model by considering the simulated SIDRA-RU drainage data
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Labenne, Amaury. "Méthodes de réduction de dimension pour la construction d'indicateurs de qualité de vie." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0239/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse est de développer et de proposer de nouvellesméthodes de réduction de dimension pour la construction d’indicateurs composites dequalité de vie à l’échelle communale. La méthodologie statistique développée met l’accentsur la prise en compte de la multidimensionnalité du concept de qualité de vie, avecune attention particulière sur le traitement de la mixité des données (variables quantitativeset qualitatives) et l’introduction des conditions environnementales. Nous optonspour une approche par classification de variables et pour une méthode multi-tableaux(analyse factorielle multiple pour données mixtes). Ces deux méthodes permettent deconstruire des indicateurs composites que nous proposons comme mesure des conditionsde vie à l’échelle communale. Afin de faciliter l’interprétation des indicateurscomposites construits, une méthode de sélection de variables de type bootstrap estintroduite en analyse factorielle multiple. Enfin nous proposons la méthode hclustgeode classification d’observations qui intègre des contraintes de proximité géographiqueafin de mieux appréhender la spatialité des phénomènes mis en jeu
The purpose of this thesis is to develop and suggest new dimensionreduction methods to construct composite indicators on a municipal scale. The developedstatistical methodology highlights the consideration of the multi-dimensionalityof the quality of life concept, with a particular attention on the treatment of mixeddata (quantitative and qualitative variables) and the introduction of environmentalconditions. We opt for a variable clustering approach and for a multi-table method(multiple factorial analysis for mixed data). These two methods allow to build compositeindicators that we propose as a measure of living conditions at the municipalscale. In order to facilitate the interpretation of the created composite indicators, weintroduce a method of selections of variables based on a bootstrap approach. Finally,we suggest the clustering of observations method, named hclustgeo, which integratesgeographical proximity constraints in the clustering procedure, in order to apprehendthe spatiality specificities better
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Autreaux-Noppe, Karine. "Contribution méthodologique à la mise en place d'un réseau de surveillance des peuplements phytoplanctoniques des eaux courantes." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-143.pdf.

Повний текст джерела
Анотація:
Le phytoplancton est un indicateur biologique souvent utilisé pour évaluer l'eutrophisation des grands cours d'eau. Or, les difficultés liées à la représentativité des échantillons de phytoplancton sont nombreuses. Elles sont présentés lors du comptage des espèces, de la conservation, de la préparation, du choix des méthodes d'analyse de pigments et à différentes échelles de temps et d'espace. L'ensemble de ces variabilités implique qu'il faut disposer d'une méthodologie de suivi fiable et durable. Ce travail apporte donc quelques éléments pour la mise en place d'un suivi de la qualité des eaux de grands cours d'eau et cours d'eau canalisés fondé sur les communautés phytoplanctoniques. Un premier bilan des compositions floristiques et des pratiques de suivi en matière de phytoplancton dans les cours d'eau en Europe et dans le bassin Artois-Picardie a été réalisé. Il montre l'absence totale d'uniformisation des techniques d'échantillonnage et d'analyse. Pour une meilleure stratégie d'échantillonnage et une bonne interprétation des données, l'ampleur des variations aux petites échelles de temps et d'espace et l'importance de la variabilité analytique au niveau taxonomique et pigmentaire ont été étudiées
Ces variations montrent qu'il est au moins nécessaire de standardiser et si possible normaliser les méthodes de comptage et d'analyse de pigments. Par ailleurs, pour limiter l'évolution des pigments du transport à l'analyse, la filtration sur place n'est pas indispensable mais la conservation à 4°c et a l'obscurité est nécessaire. La variabilité à micro-échelle et à petite échelle spatiale est faible et négligeable, indiquant qu'un prélèvement dans la zone d'écoulement maximal est représentatif du site de prélèvement. A l'inverse, la variabilité à petite échelle temporelle est élevé, montrant que pour obtenir une meilleure estimation du peuplement phytoplanctonique, il faut augmenter la fréquence d'échantillonnage
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Serrano, Balderas Eva Carmina. "Preprocessing and analysis of environmental data : Application to the water quality assessment of Mexican rivers." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS082/document.

Повний текст джерела
Анотація:
Les données acquises lors des surveillances environnementales peuvent être sujettes à différents types d'anomalies (i.e., données incomplètes, inconsistantes, inexactes ou aberrantes). Ces anomalies qui entachent la qualité des données environnementales peuvent avoir de graves conséquences lors de l'interprétation des résultats et l’évaluation des écosystèmes. Le choix des méthodes de prétraitement des données est alors crucial pour la validité des résultats d'analyses statistiques et il est assez mal défini. Pour étudier cette question, la thèse s'est concentrée sur l’acquisition des données et sur les protocoles de prétraitement des données afin de garantir la validité des résultats d'analyse des données, notamment dans le but de recommander la séquence de tâches de prétraitement la plus adaptée. Nous proposons de maîtriser l'intégralité du processus de production des données, de leur collecte sur le terrain et à leur analyse, et dans le cas de l'évaluation de la qualité de l'eau, il s’agit des étapes d'analyse chimique et hydrobiologique des échantillons produisant ainsi les données qui ont été par la suite analysées par un ensemble de méthodes statistiques et de fouille de données. En particulier, les contributions multidisciplinaires de la thèse sont : (1) en chimie de l'eau: une procédure méthodologique permettant de déterminer les quantités de pesticides organochlorés dans des échantillons d'eau collectés sur le terrain en utilisant les techniques SPE–GC-ECD (Solid Phase Extraction - Gas Chromatography - Electron Capture Detector) ; (2) en hydrobiologie : une procédure méthodologique pour évaluer la qualité de l’eau dans quatre rivières Mexicaines en utilisant des indicateurs biologiques basés sur des macroinvertébrés ; (3) en science des données : une méthode pour évaluer et guider le choix des procédures de prétraitement des données produites lors des deux précédentes étapes ainsi que leur analyse ; et enfin, (4) le développement d’un environnement analytique intégré sous la forme d’une application développée en R pour l’analyse statistique des données environnementales en général et l’analyse de la qualité de l’eau en particulier. Enfin, nous avons appliqué nos propositions sur le cas spécifique de l’évaluation de la qualité de l’eau des rivières Mexicaines Tula, Tamazula, Humaya et Culiacan dans le cadre de cette thèse qui a été menée en partie au Mexique et en France
Data obtained from environmental surveys may be prone to have different anomalies (i.e., incomplete, inconsistent, inaccurate or outlying data). These anomalies affect the quality of environmental data and can have considerable consequences when assessing environmental ecosystems. Selection of data preprocessing procedures is crucial to validate the results of statistical analysis however, such selection is badly defined. To address this question, the thesis focused on data acquisition and data preprocessing protocols in order to ensure the validity of the results of data analysis mainly, to recommend the most suitable sequence of preprocessing tasks. We propose to control every step in the data production process, from their collection on the field to their analysis. In the case of water quality assessment, it comes to the steps of chemical and hydrobiological analysis of samples producing data that were subsequently analyzed by a set of statistical and data mining methods. The multidisciplinary contributions of the thesis are: (1) in environmental chemistry: a methodological procedure to determine the content of organochlorine pesticides in water samples using the SPE-GC-ECD (Solid Phase Extraction – Gas Chromatography – Electron Capture Detector) techniques; (2) in hydrobiology: a methodological procedure to assess the quality of water on four Mexican rivers using macroinvertebrates-based biological indices; (3) in data sciences: a method to assess and guide on the selection of preprocessing procedures for data produced from the two previous steps as well as their analysis; and (4) the development of a fully integrated analytics environment in R for statistical analysis of environmental data in general, and for water quality data analytics, in particular. Finally, within the context of this thesis that was developed between Mexico and France, we have applied our methodological approaches on the specific case of water quality assessment of the Mexican rivers Tula, Tamazula, Humaya and Culiacan
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Mechinaud, Lamarche Vadel Agathe. "Elaboration d'indicateurs de mortalité post-hospitalière à différents délais avec prise en compte des causes médicales de décès." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA11T073/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse était d’investiguer différents choix méthodologiques, en particulier le choix du délai et la prise en compte des causes médicales de décès, dans l’élaboration des indicateurs de mortalité post-hospitalière visant à refléter la qualité des soins.Dans une première phase, les données médico-administratives hospitalières des bénéficiaires du Régime Général (RG) de l’Assurance Maladie décédés dans l'année suivant une hospitalisation en 2008 ou 2009 ont été appariées aux causes de décès (base du CépiDc). Le taux d’appariement était de 96,4%.Dans une deuxième phase les séjours pour lesquels la cause initiale de décès pouvait être qualifiée d'indépendante du diagnostic principal du séjour ont été repérés à l'aide d'un algorithme et d'un logiciel s'appuyant sur des standards internationaux. Dans une troisième phase, le modèle le plus souvent utilisé à l'international pour évaluer la mortalité intra-hospitalière (modèle « de Jarman ») a été reproduit et utilisé pour construire des indicateurs de mortalité par établissement à 30, 60, 90, 180 et 365 jours post-admission, pour l'année 2009 (12 322 831 séjours PMSI-MCO des bénéficiaires du RG).L’indicateur de mortalité intra-hospitalière s’est révélé biaisé par les pratiques de sortie des établissements (caractérisées par la durée moyenne de séjour et le taux de transfert vers d’autres établissements). Les indicateurs à 60 ou 90 jours post-admission doivent être préférés à l’indicateur à 30 jours car ils ont l’avantage d’inclure presque tous les décès intra-hospitaliers, limitant notamment les incitations à maintenir les patients en vie jusqu’à la fin de la période de suivi et/ou à cesser de leur dédier des ressources une fois ce terme atteint. L’utilisation des causes de décès en supprimant les décès indépendants change de façon négligeable les indicateurs de mortalité globale par établissement, toutefois elle pourrait être utile pour des indicateurs spécifiques, limités à certaines pathologies ou procédures.Des réserves quant à la pertinence de ces indicateurs ont été décrites (limites du modèle et des variables d'ajustement, hétérogénéité de la qualité du codage entre les établissements), mettant en évidence la nécessité de recherches complémentaires, en particulier sur leur capacité à refléter la qualité des soins et sur l’impact de leur diffusion publique. A ce jour, l’interprétation des indicateurs de mortalité par établissement nécessite la plus grande prudence
The main objective of this PhD work was to investigate different methodological options for the elaboration of post hospital mortality indicators aiming at reflecting quality of care, in particular to identify the most relevant timeframes and to assess the contribution of the causes of death information.In a first phase, the hospital discharge data of the French General health insurance scheme beneficiaries who died during the year following an hospital stay in 2008 or 2009 were linked to the cause of death register. The matching rate was 96.4%.In a second phase, the hospital stays for which the underlying cause of death could be qualified as independent from the main diagnosis were identified with an algorithm and a software relying on international standards.In a third phase, the method most widely used to assess in-hospital mortality (Dr Foster Unit method) was reproduced and used to construct hospital mortality indicators at 30, 60, 90, 180 et 365 days post-admission, on year 2009 (12 322 831 acute-care stays)..As in other countries, in-hospital mortality revealed biased by discharge patterns in the French data: hospitals : short length-of-stay or high transfer-out rates for comparable casemix tend to have lower in-hospital mortality. The 60-day and 90-day indicators should be preferred to the 30-day indicator, because they reflect a larger part of in-hospital mortality, and are less subject to the incentives either to maintain patients alive until the end of the follow-up window or to shift resources away when this length of stay is reached. The contribution of the causes of death seems negligible in the context of hospital-wide indicators, but it could prove its utility in future health services research about specific indicators limited to selected conditions or procedures.However, reservations about the relevance of hospital-wide mortality indicators aiming at assessing quality of care are described (limits of the statistical model and adjustment variables available, heterogeneity of the coding quality between hospitals). Further research is needed, in particular on the capacity of these indicators to reflect quality of care and on the impact of their public reporting. To date, the use of hospital-wide mortality indicators needs to be extremely cautious
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Grac, Corinne. "Fouille temporelle des indicateurs physico-chimiques et biologiques pour l'évaluation de l'état, des pressions et de la capacité de résilience des rivières." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAH015.

Повний текст джерела
Анотація:
Les données issues de la surveillance des rivières sont volumineuses, avec des relations complexes. Des méthodes de fouille de données non supervisées peuvent s’y appliquer et donner des résultats pertinents pour leur gestion, sous réserve d’une collaboration étroite entre hydroécologues et informaticiens. L’extraction de motifs partiellement ordonnés à partir de séquences temporelles de pressions physico-chimiques précédant un état biologique a été réalisée. Ces motifs temporels permettent d’identifier une partie des pressions en cause dans un état écologique dégradé ou non, de préciser l’importance de la durée des séquences avant l’évaluation de l’état biologique, d’identifier les altérations caractéristiques à l’échelle d’une hydro-écorégion. A terme nous envisageons d’élargir ces motifs aux pressions hydromorphologiques
Data from the assessment of river are big data, with complex relationships. Unsupervised data mining methods can be applied on them and give relevant results for their management, if a close collaboration exists between hydroecologists and computer scientists. The extraction of partially ordered patterns from temporal sequences of physicochemical pressures preceding a biological state has been achieved. These temporal patterns allow to identify a part of the pressures involved or not in a degraded ecological status, to specify the importance of the sequences time-length before a biological assessment, to identify the characteristic pressure categories at a regional scale. To go further, we plan to extend these patterns to hydromorphological pressures
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Nesvijevskaia, Anna. "Phénomène Big Data en entreprise : processus projet, génération de valeur et Médiation Homme-Données." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1247.

Повний текст джерела
Анотація:
Le Big Data, phénomène sociotechnique porteur de mythes, se traduit dans les entreprises par la mise en place de premiers projets, plus particulièrement des projets de Data Science. Cependant, ils ne semblent pas générer la valeur espérée. La recherche-action menée au cours de 3 ans sur le terrain, à travers une étude qualitative approfondie de cas multiples, pointe des facteurs clés qui limitent cette génération de valeur, et notamment des modèles de processus projet trop autocentrés. Le résultat est (1) un modèle ajusté de dispositif projet data (Brizo_DS), ouvert et orienté sur les usages, dont la capitalisation de connaissances, destiné à réduire les incertitudes propres à ces projets exploratoires, et transposable à l’échelle d’une gestion de portefeuille de projets data en entreprise. Il est complété par (2) un outil de documentation de la qualité des données traitées, le Databook, et par (3) un dispositif de Médiation Homme-Données, qui garantissent l’alignement des acteurs vers un résultat optimal
Big Data, a sociotechnical phenomenon carrying myths, is reflected in companies by the implementation of first projects, especially Data Science projects. However, they do not seem to generate the expected value. The action-research carried out over the course of 3 years in the field, through an in-depth qualitative study of multiple cases, points to key factors that limit this generation of value, including overly self-contained project process models. The result is (1) an open data project model (Brizo_DS), orientated on the usage, including knowledge capitalization, intended to reduce the uncertainties inherent in these exploratory projects, and transferable to the scale of portfolio management of corporate data projects. It is completed with (2) a tool for documenting the quality of the processed data, the Databook, and (3) a Human-Data Mediation device, which guarantee the alignment of the actors towards an optimal result
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Ferhat, Fouad. "Une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires : une comparaison au niveau international." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E040/document.

Повний текст джерела
Анотація:
Cette thèse propose une analyse économique de la qualité et de l'efficience des universités et des systèmes universitaires au niveau international, à travers l'utilisation des indicateurs intrants et extrants et la méthode d'enveloppement des données (Data Envelopment Analysis DEA). La thèse est composée de quatre chapitres. Le premier chapitre intitulé "les classements des universités : une mise en perspective critique" présente et évalue la pertinence des indicateurs intrants/extrants les plus utilisés par les classements des universités. Il est l'occasion d'exposer un certain nombre de critiques présentes dans la littérature et de focaliser sur un problème méthodologique répandu dans les classements. Il s'agit de l'utilisation des inputs (intrants) comme des mesures de la qualité des universités. Une telle pratique confond moyen et résultat et fait l'impasse sur les concepts de base des modèles de comptabilité en termes de fonction de production et d'efficience. Le deuxième chapitre intitulé "caractéristiques et classements des universités : autour de quelques facteurs capables d'expliquer les différences de performance entre les universités", compare les résultats de deux classements: QS-Times et Shanghai et propose une liste de facteurs capables d'expliquer pourquoi il existe de telles différences de qualité, selon ces classements, entre les universités. [...] Le troisième chapitre intitulé "la performance et l'efficience des universités et leurs déterminants: une évaluation à partir des classements mondiaux des universités et de la méthode DEA" évalue sur la base d'une méthode DEA l'efficience de 214 universités issues de 13 pays différentes afin de savoir si les universités les mieux classées parmi les classements traditionnels sont aussi les universités qui utilisent le mieux leurs ressources. [...] Enfin, le quatrième chapitre, titré "l'efficience des systèmes universitaires de 35 pays et leurs déterminants: une évaluation par la méthode DEA et le calcul des indices de Malmquist (2006-2012)" évalue l'efficience et les performances des systèmes universitaires de 35 pays. Il propose de nouveaux scores d'efficience globale qui viennent compléter les deux premières études sur ce sujet d’Agasisti (2011) et St. Aubyn et al (2009). Les nouveautés par rapport à l'article d'Agasisti (2011) sont au nombre de cinq: l'échantillon est plus important (35 pays au lieu de 18), la période d'observation est actualisée, l'évolution de l'efficience entre deux périodes est calculée, le nombre des intrants et des extrants incorporé dans chaque modèle est plus élevé et un modèle spécifique d'évaluation de l'efficience de la recherche est proposé. Il conforte la thèse selon laquelle les systèmes universitaires de la Suisse et du Royaume-Uni sont les plus efficients. Il montre aussi sur la base d'un calcul des indices de Malmquist qu'entre 2006 et 2012 l'efficience en matière d'enseignement des 35 systèmes universitaires évalués a eu tendance à diminuer alors que l'efficience de la recherche et de l'attractivité- réputation de ces mêmes systèmes a plutôt eu tendance à augmenter. Ce qui permet de mieux évaluer l'effet des réformes inspirées par l'usage du classement de Shanghai sur les systèmes universitaires. Ces réformes conduisent les enseignants-chercheurs à délaisser l'enseignement pour la recherche
This thesis aims to economically analyze the quality and efficiency of universities and university systems at an international level of comparison, by using input/output indicators and the Data Envelopment Analysis (DEA) method. The thesis is composed of four chapters. The first chapter entitled "university rankings: a critical perspective" presents and evaluates the relevance of inputs/outputs indicators used by most university rankings. It is the opportunity to present a number of criticisms found in the literature and focus on a common methodological problem in the rankings. It is the use of inputs as measures of university quality. This practice confuses means and results and ignores the basic concepts of accounting models in terms of production functions and efficiency. The second chapter entitled "characteristics and rankings of universities : around some factors that can explain the differences in performance between universities", compares the results of two rankings: QS-Times and Shanghai and offers a list of factors that may explain why there are such differences in quality, according to these rankings between universities. [...] The third chapter entitled "performance and efficiency of universities and their determinants: an evaluation using world university rankings and DEA methodology" evaluates on the basis of a DEA methodology the efficiency of 214 universities from 13 different countries, in order to find if the top ranked universities among traditional rankings are also universities that best utilize their financial and human resources. [...] The fourth chapter titled "efficiency of university systems in 35 countries and its determinants: an assessment by DEA methodology and the calculation of Malmquist indices (2006-2012)" assesses the efficiency and performance of university systems of 35 countries. It offers new scores for overall efficiency that complement the first two studies on this topic in the literature by Agasisti (2011) and St.Aubyn et al (2009). Compared to the article of Agasisti (2011), we identify five new developments in our study : the sample is higher (35 countries instead of 18), the observation period is updated, the evolution of efficiency between two periods is calculated, the number of inputs and outputs incorporated into each model is higher and a specific model for evaluating the efficiency of research is proposed. Our study confirms the thesis that the university systems of Switzerland and the United Kingdom are the most efficient. It also shows based on the calculations of Malmquist indices between 2006 and 2012 that teaching efficiency of 35 reviewed university systems has a tendency of declining while the research efficiency and that of attractivity-reputation is rather increasing. This allows a better assessment of the impact of reforms inspired by the Shanghai ranking on university systems. These reforms led the academic staff of universities to abandon their focus on teaching in favor of research activities
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Bertillot, Hugo. "La rationalisation en douceur : sociologie des indicateurs qualité à l’hôpital." Thesis, Paris, Institut d'études politiques, 2014. http://www.theses.fr/2014IEPP0042/document.

Повний текст джерела
Анотація:
Depuis les années 1990, le secteur hospitalier français est affecté par des réformes néo-managériales visant à renforcer le contrôle étatique sur les organisations de soin et sur les activités médicales. La thèse interroge ces transformations à la lumière du déploiement d'indicateurs qualité dont l'objet est de quantifier, mettre en transparence et améliorer la qualité des prises en charge. De quelle manière ces dispositifs d'évaluation affectent-ils la régulation institutionnelle de l'hôpital, l'organisation des établissements et l'autonomie des professionnels ? La thèse saisit l'action publique dans son caractère organisé, instrumental et cognitif, à partir d’une méthodologie qui croise entretiens auprès des responsables institutionnels, analyse de sources écrites et enquêtes dans quatre établissements hospitaliers. Cette approche permet de retracer le processus de construction des instruments, d'analyser leurs propriétés techniques et cognitives et de caractériser leurs usages sociaux. Ces indicateurs ont émergé dans un contexte institutionnel marqué par les infections nosocomiales et les palmarès hospitaliers. Construits à partir de savoirs hybrides, travaillés et légitimés par de multiples acteurs intermédiaires entre l’État et les professionnels, ils ont été généralisés prudemment, mais massivement, au cours des années 2000. En s'institutionnalisant, ils instillent formalisation, contrôle, traçabilité et auditabilité à l'hôpital. En déplaçant le regard des effets visibles et contraignants des instruments de tarification vers ces mécanismes plus discrets, la thèse montre comment l'évaluation de la qualité rationalise en douceur les bureaucraties professionnelles
Since the late 1990s, the French hospital sector faces neomanagerial reforms aiming at strengthening state control over care organizations and medical activities. The thesis examines these contemporary transformations through the deployment of quality indicators measuring the quality of medical care, in order to enhance transparency and improve quality. How do these evaluation devices affect the institutional regulation of healthcare, the organization of hospitals and the professional autonomy of medical practitioners? The thesis describes the organized, instrumental and cognitive dimensions of public action, through a qualitative methodology crossing interviews with institutional leaders, analysis of written sources and investigations in four hospitals. It traces the career of these instruments, analyzes their technical and cognitive properties and characterizes their diverse social uses. These indicators have emerged in an institutional context deeply affected by nosocomial infections and hospital rankings. They are made of hybrid knowledge. Multiple intermediaries between state and professional actors shaped and legitimized them. They have been carefully but massively disseminated in the 2000s. Through their institutionalization, they instill formalization, control, traceability and auditability in hospitals. By moving the focus from the visible and constraining effects of payment instruments to these more discrete mechanisms, the thesis shows how quality evaluation softly rationalizes professional bureaucracies
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Brocolini, Laurent. "Caractérisation de l'environnement sonore urbain : Proposition de nouveaux indicateurs de qualité." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00855265.

Повний текст джерела
Анотація:
A l'heure actuelle, les seuls moyens d'informer les usagers de la ville de l'environnement sonore dans lequel ils vivent consistent en des indicateurs de niveaux sonores moyens et annuels obtenus par modélisation acoustique des principales infrastructures de transports. Or, ces indicateurs sont difficilement compris et de ce fait mal interprétés par les usagers de la ville car ils ne reflètent pas la signification des bruits perçus et la diversité des situations que les citadins rencontrent. Le but de ce travail de recherche est donc d'analyser la façon dont les usagers de la ville perçoivent le paysage sonore urbain afin de définir des indicateurs de qualité sonore qui pourront être à terme intégrés dans une représentation territoriale cartographique. Pour ce faire, il a tout d'abord été nécessaire de s'attacher à déterminer un pas temporel et spatial de mesure permettant de caractériser des ambiances urbaines d'un point de vue acoustique. A partir d'enregistrements longue durée (trois mois environs) en six points fixes à Paris, il a été possible de déterminer à travers des classifications ascendantes hiérarchiques de Ward associées à des cartes auto-organisatrices de Kohonen qu'une durée de dix minutes semble dans la plupart des cas être suffisante pour caractériser différentes ambiances sonores. Grâce aux mêmes méthodes de classification, l'analyse du maillage spatial a permis de définir quatre zones homogènes qui correspondent (1) au parc, (2) au boulevard, (3) à la rue piétonne puis (4) une zone que l'on qualifiera de zone de transition. La suite de l'étude s'est attachée à construire des modèles de prédiction de la qualité sonore. A partir d'enquêtes de terrain réalisées à Paris et à Lyon, il a été possible d'établir des modèles à la fois locaux (caractérisant le lieu même où le questionnaire a été évalué) et globaux basés d'une part sur des régressions linéaires multiples et d'autre part sur des réseaux de neurones artificiels. La comparaison de ces deux types de modèles a permis entre autre de mettre en évidence l'apport des réseaux de neurones artificiels devant les régressions linéaires multiples en termes de prédiction. Par ailleurs il est ressorti de ces modèles l'importance de variables telles que le silence, l'agrément visuel ou encore la présence de sources sonores particulières comme les véhicules légers pour expliquer la qualité sonore de l'environnement.
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Najjar-Pellet, Josette. "Les infections nosocomiales : indicateurs de qualité en réanimation et en chirurgie ?" Lyon 1, 2008. http://www.theses.fr/2008LYO10164.

Повний текст джерела
Анотація:
Les infections nosocomiales (IN) sont des infections qui surviennent au cours ou à la suite de la prise en charge d’un patient. Avec le développement des démarches d’évaluation et d’accréditation, ces infections ont commencé à être utilisées comme indicateurs de la qualité des soins. Cependant, la validité de ces taux fait l’objet d’un débat scientifique. Ce travail s’inscrit dans le cadre du Projet Hospitalier de Recherche Clinique Noso. Qual qui visait à étudier le lien entre d’une part les indicateurs de structure et processus, et d’autre part les IN comme indicateurs de résultats en réanimation et en chirurgie. L’élaboration des scores a nécessité une revue de la littérature, des consultations d’experts, et des enquêtes de terrain. Les scores étaient organisés en sept dimensions : Ressources humaines, Architecture, Sécurité et environnement, Gestion de la documentation, Prise en charge du patient, Gestion du risque infectieux, Evaluation et surveillance. Les scores obtenus ont été confrontés aux données de surveillances en utilisant une régression de Poisson. Deux dimensions seulement Architecture et Gestion de la documentation étaient significativement associées aux IN avec un effet protecteur. Quant aux scores globaux, ils étaient significativement associés aux IN en réanimation pour tous les sites étudiés mais pas en chirurgie. Le constat obtenu en réanimation pourrait ainsi soutenir la construction d'indicateurs initiés en France et dans d'autres pays. Quant aux résultats en chirurgie, ils ne doivent pas remettre en cause ni le principe de surveillance des IN ni la nécessité de l’évaluation des actions de prévention et d’améliorations des pratiques professionnelles
Nosocomial infections (NI) are infections that occur during or after a patient care. With the development of evaluation and accreditation initiatives, these infections started to be used as indicators of quality of care. However, the validity of these rates is the subject of scientific debate. This work is carried out in the framework of clinical research project Noso. Qual aiming at studying the link between structure and process indicators and NI as performance indicators in intensive care and in surgery. The design of the scores required a literature review, expert consultations and field surveys. The scores were organized into seven dimensions: Human Resources, Architecture, Safety and Environment, Management of documentation, Patient care management, Risk management of infections, Evaluation and Surveillance. Scores were compared to surveillance data using a Poisson regression. Only two dimensions Architecture and Management of documentation were significantly associated with the NI with a protective effect. As for the overall scores, they were significantly associated with NI in intensive care units for all the sites of infections considered but not in surgery. The results obtained in intensive care show that NI would be a valid indicator which could support the construction of indicators already initiated in France and other countries. As for the results in surgery, they should not call into question either the principle of surveillance of NI or the necessity of evaluating actions of prevention and improving professional practices activities
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Choquet, Rémy. "Partage de données biomédicales : modèles, sémantique et qualité." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00824931.

Повний текст джерела
Анотація:
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Ben, salem Aïcha. "Qualité contextuelle des données : détection et nettoyage guidés par la sémantique des données." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD054/document.

Повний текст джерела
Анотація:
De nos jours, les applications complexes telles que l'extraction de connaissances, la fouille de données, le E-learning ou les applications web utilisent des données hétérogènes et distribuées. Dans ce contexte, la qualité de toute décision dépend de la qualité des données utilisées. En effet, avec l'absence de données riches, précises et fiables, une organisation peut prendre potentiellement de mauvaises décisions. L'objectif de cette thèse consiste à assister l'utilisateur dans sa démarche qualité. Il s'agit de mieux extraire, mélanger, interpréter et réutiliser les données. Pour cela, il faut rattacher aux données leurs sens sémantiques, leurs types, leurs contraintes et leurs commentaires. La première partie s'intéresse à la reconnaissance sémantique du schéma d'une source de données. Elle permet d'extraire la sémantique des données à partir de toutes les informations disponibles, incluant les données et les métadonnées. Elle consiste, d'une part, à classifier les données en leur attribuant une catégorie et éventuellement une sous-catégorie, et d'autre part, à établir des relations inter colonnes et de découvrir éventuellement la sémantique de la source de données manipulée. Ces liens inter colonnes une fois détectés offrent une meilleure compréhension de la source ainsi que des alternatives de correction des données. En effet, cette approche permet de détecter de manière automatique un grand nombre d'anomalies syntaxiques et sémantiques. La deuxième partie consiste à nettoyer les données en utilisant les rapports d'anomalies fournis par la première partie. Elle permet une correction intra colonne (homogénéisation des données), inter colonnes (dépendances sémantique) et inter lignes (élimination des doublons et similaire). Tout au long de ce processus, des recommandations ainsi que des analyses sont proposées à l'utilisateur
Nowadays, complex applications such as knowledge extraction, data mining, e-learning or web applications use heterogeneous and distributed data. The quality of any decision depends on the quality of the used data. The absence of rich, accurate and reliable data can potentially lead an organization to make bad decisions.The subject covered in this thesis aims at assisting the user in its quality ap-proach. The goal is to better extract, mix, interpret and reuse data. For this, the data must be related to its semantic meaning, data types, constraints and comments.The first part deals with the semantic schema recognition of a data source. This enables the extraction of data semantics from all the available information, inculding the data and the metadata. Firstly, it consists of categorizing the data by assigning it to a category and possibly a sub-category, and secondly, of establishing relations between columns and possibly discovering the semantics of the manipulated data source. These links detected between columns offer a better understanding of the source and the alternatives for correcting data. This approach allows automatic detection of a large number of syntactic and semantic anomalies.The second part is the data cleansing using the reports on anomalies returned by the first part. It allows corrections to be made within a column itself (data homogeni-zation), between columns (semantic dependencies), and between lines (eliminating duplicates and similar data). Throughout all this process, recommendations and analyses are provided to the user
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Bard, Sylvain. "Méthode d'évaluation de la qualité de données géographiques généralisées : application aux données urbaines." Paris 6, 2004. http://www.theses.fr/2004PA066004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Marzin, Anahita. "Indicateurs biologiques de la qualité écologique des cours d'eau : variabilités et incertitudes associées." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00879788.

Повний текст джерела
Анотація:
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Marzin, Anahita. "Indicateurs biologiques de la qualité écologique des cours d’eau : variabilités et incertitudes associées." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0002/document.

Повний текст джерела
Анотація:
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement
Sensitive biological measures of ecosystem quality are needed to assess, maintain or restore the ecological conditions of rivers. Since our understanding of these complex systems is imperfect, river management requires recognizing variability and uncertainty of bio-assessment for decision-making. Based on the analysis of national data sets (~ 1654 sites), the main goals of this work were (1) to test some of the assumptions that shape bio-indicators and (2) address the temporal variability and the uncertainty associated to prediction of reference conditions.(1) This thesis highlights (i) the predominant role of physiographic factors in shaping biological communities in comparison to human pressures (defined at catchment, riparian corridor and reach scales), (ii) the differences in the responses of biological indicators to the different types of human pressures (water quality, hydrological, morphological degradations) and (iii) more generally, the greatest biological impacts of water quality alterations and impoundments. (2) A Bayesian method was developed to estimate the uncertainty associated with reference condition predictions of a fish-based bio-indicator (IPR+). IPR+ predictive uncertainty was site-dependent but showed no clear trend related to the environmental gradient. By comparison, IPR+ temporal variability was lower and sensitive to an increase of human pressure intensity. This work confirmed the advantages of multi-metric indexes based on functional metrics in comparison to compositional metrics. The different sensitivities of macrophytes, fish, diatoms and macroinvertebrates to human pressures emphasize their complementarity in assessing river ecosystems. Nevertheless, future research is needed to better understand the effects of interactions between pressures and between pressures and the environment
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Fall, Samba. "Economie du droit et indicateurs de qualité dans le domaine de la justice." Paris 10, 2011. http://www.theses.fr/2011PA100106.

Повний текст джерела
Анотація:
La justice est en effet un bien aux caractéristiques spécifiques qui en fait un « bien de confiance ». Cette qualité n’est, au demeurant, pas révélée aux consommateurs même après consommation du bien. A cet égard, on peut s’interroger sur l’intérêt de la « certification» de cette justice. Le marché a en effet inventé la certification comme un « signal » utile, s’agissant de « biens standards » et de « biens d’expérience », sur la qualité desquels les consommations antérieures apportent une information, et qui peuvent alors être standardisées. Dans ce cas, les producteurs offrant des biens de qualité élevée peuvent espérer disposer d’une « rente informationnelle » qui leur permet de signaler cette qualité de manière crédible, par exemple par un label. La certification n’est, en revanche, pas bien adaptée aux biens de confiance. Il existe une insatisfaction que procure l’évaluation de l’activité juridictionnelle par une seule batterie d’indicateurs de performance centrés sur les coûts. L’efficacité ou l’efficience de la Justice dépend aussi de l’adhésion affective des citoyens, et comporte une dimension émotionnelle que traduit la confiance dont l’investissent, ou non, les citoyens. L’acceptabilité des décisions de justice est aussi un gage de leur bonne exécution, et, plus largement, de l’effectivité de la dimension dissuasive de la sanction reconnue par le droit. Cette adhésion peut être également de nature à compenser les coûts sociaux, invisibles, du renoncement à la Justice (perpétuation de situations non résolues, frustration de ne pouvoir obtenir une solution juridictionnelle satisfaisante, etc…) C’est dans ce cadre, que nous mettrons la lumière dans une première partie sur une approche économique de la justice, qui ouvre des perspectives de réflexion sur la théorie des prix appliquée à la résolution des litiges, sur les conditions optimales de résolution des conflits, sur les effets économiques des comportements des justiciables. L’analyse économique du droit (AED) devient alors notre outil, pivot central d’analyse. L’analyse économique du droit est la discipline qui cherche à expliquer les phénomènes juridiques grâce aux méthodes et concepts de la science économique. Cette double discipline porte sur l’analyse par les outils de la science économique des phénomènes juridiques. Par outils de l’économie, il faut comprendre principalement l’analyse coût-avantage, les concepts de coûts moyens, la réflexion sur la mise en place d’indicateurs servant à mesurer une activité. Puis il devient nécessaire de dépasser ce concept, pour élargir notre vision, ce qui nous amène à nous interroger sur la ou les manières d’améliorer les dispositifs judiciaires de traitement des litiges fondés sur la démarche qualité. C’est ainsi que le thème de la qualité dans la justice en général et dans les décisions de justice en particulier, nous ouvre le champ sur une analyse normative axée sur la notion de coût/ délai et l’efficacité sociale, lesquelles analyses nous ouvrirons les portes de la réflexion pragmatique sur l’usage et la pertinence des dispositifs inducteurs de confiance et de légitimation. Ces nouveaux dispositifs inducteurs de confiance et de légitimation s’appellent « Gouvernance » lorsqu’ils s’appliquent à la production juridique au sens de « donner un ordre». Ils s’appellent « Médiation » lorsqu’ils s’appliquent à la prévention ou à la résolution de conflits au sens de « trouver une solution qui empêche la survenance d’un conflit ou qui le règle ». Tout ceci, afin de faciliter l’émergence d’une solution coopérative. Les modes alternatifs de règlement des litiges (MARL) conçus en droit civil comme une manifestation de la liberté contractuelle des sujets de droits, liberté qui leur permet de transiger sur l’existence, l’étendue ou l’exercice de leurs droits subjectifs afin de mettre fin à un litige, apparaissent ainsi comme un moyen de faire l’économie d’un procès. Il s’agit de la première de ses fonctions, généralement mise en avant par l’analyse économique du droit lorsqu’elle considère le jugement comme un échec de la négociation entre les parties. Dans le même temps, les MARL apparaissent globalement comme une technique de déjudiciarisation. La transaction apparaît alors comme un moyen de prévenir et de régler un litige avant d’avoir recours à des procédures juridictionnelles, lesquelles ne pourront être que bénéficiaires de cet allégement car elles seront moins nombreuses et donc plus rapides. Les MARL peuvent également trouver de multiples moments où s’exprimer : ils peuvent permettre le dénouement du litige avant qu’il ne se soit cristallisé au point d’aboutir au tribunal tout comme ils peuvent permettre d’y mettre fin alors que le juge vient à peine d’être saisi. Certains auteurs évoquent d’ailleurs l’idée d’une « médiation à l’ombre du droit ». La dernière partie de cette thèse nous instruit d’axer notre réflexion sur une approche terrain, celle de l’évaluation et du contrôle de la qualité en France, celle de la mise en œuvre de la démarche qualité dans les juridictions, avec des biais éventuels tels que « les effets de l’aide juridictionnelle sur l’incitation à agir en justice, sur le mode de résolution des conflits… » celle enfin de la mesure de l’activité à travers des indicateurs pertinents. L’analyse de l’activité des TGI en termes d’indicateurs en général et celle du TGI de Nancy en particulier mettent en lumière sur une observation en longue période, la difficulté de l’homogénéité de la notion d’affaires et à son caractère réducteur, étant entendu toutefois que les « affaires » correspondent à des procès civils, et non à des mesures d’ordonnances ou d’instructions. Cette analyse permet de mettre en exergue une réflexion importante sur la ou les méthodes à utiliser afin d’améliorer et de maitriser les résultats tant sur les délais que sur les coûts essentiellement.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Michel, Philippe. "Approche métrologique de l'utilisation des indicateurs de performance en santé." Bordeaux 2, 2001. http://www.theses.fr/2001BOR28896.

Повний текст джерела
Анотація:
Les indicateurs de performance des interventions et des systèmes de santé sont utilisés pour identifier des dysfonctionnements, pour comparer les structures ou les activités et pour suivre dans le temps la performance. L'évaluation de ces indicateurs est difficile, en partie parce que le cadre conceptuel métrologique, qui oppose classiquement validité et fiabilité, présente des ambiguités. Les objectifs de cette thèse sont, à partir d'une analyse critique de ce cadre métrologique, de proposer un nouveau cadre conceptuel, de l'intégrer dans une démarche d'utilisation des indicateurs de performance, et d'utiliser cette démarche par des exemples. Le cadre proposé comporte quatre caractéristiques métrologiques (validité, stabilité, homogénéité et cohérence) pour l'étude de toutes les sources possibles de variabilité. La stratégie d'analyse des caractéristiques métrologiques, cohérente et logique pour le développement et l'évaluation des indicateurs, est en théorie applicable à tout outil de mesure. Une démarche globale d'utilisation des indicateurs explore, en dix étapes, les caractéristiques métrologiques, leur convenance et leur faisabilité. L'adéquation du cadre proposé est illustrée par nos travaux sur des indicateurs de performance de la prise en charge de la douleur, de la chirurgie cardiaque, de la prescription du bilan préopératoire et de la chirurgie ambulatoire. La démarche est opérationnelle, même si les quatre sources de variabilité, individualisées pour des raisons didactiques, ne sont pas toujours analysées de façon distincte. La variété des indicateurs étudiés laisse penser que cette démarche est applicable à l'ensemble des indicateurs de performance en santé
Health care performance indicators are used to identify deficiencies in health care, to compare structures or activities and to follow performance over time. Assessing indicators is difficult, partly because there are conceptual ambiguities concerning the classical measurement properties of validity and reliability. The objectives of this thesis are to propose a revised measurement conceptual framework, to include it in guidelines for the utilisation of performance indicators, and to illustrate application of guidelines. We defined four measurements properties (validity, stability, homogeneity and coherence) relevant for the assessment of all possible sources of variability. Our strategy for assessing indicators, which is coherent and logical for the development and evaluation of indicators, is theorically applicable to all measurement tools. Our integrative guidelines, based on ten steps, explores the measurement properties as well as suitability and feasibility issues. The appropriateness of the proposed framework is illustrated using our work on indicators of performance of pain management, cardiac surgery, preoperative prescription appropriateness and ambulatory surgery wards. The framework was operational, although the four kinds of variability, separated for didactical reasons, not always analyzed separately. We believe that the wide array of indicators studied is in favor of the applicability of our framework to all performance indicators in health care
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques." Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Повний текст джерела
Анотація:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Le, Pape Cécile. "Contrôle de qualité des données répliquées dans un Cluster." Paris 6, 2005. http://www.theses.fr/2005PA066433.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Aubé, Lucien. "Identification des indicateurs de qualité des interventions en formation sur mesure auprès des organisations." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ32571.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Lassoued, Yassine. "Médiation de qualité dans les systèmes d'information géographique." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11027.

Повний текст джерела
Анотація:
La prise de décision dans les domaines de l'aménagement du territoire, de la gestion des risques, de la gestion des transports, etc. Repose sur des données géographiques. Ces données sont diverses et de qualités variables, car elles sont issues d'observations plus ou moins imparfaites du monde réel. Les Systèmes d'Information Géographique (SIG) actuels ne sont pas encore capables d'intégrer à la fois des sources de données et leurs qualités. Il devient impératif de surmonter ce problème et d'offrir un système d'information qui guide l'utilisateur dans le choix des données qui satisfont au mieux ses besoins en termes de qualité. L'objectif de la thèse est d'apporter une solution à ce problème en proposant un système d'intégration qui prenne en compte la qualité des données à intégrer. Le problème consistera à satisfaire plusieurs besoins : gérer des sources de données géographiques autonomes, et prendre en compte des opérateurs spatiaux ainsi que des informations de qualité.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Muhlenbach, Fabrice. "Evaluation de la qualité de la représentation en fouille de données." Lyon 2, 2002. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2002/muhlenbach_f.

Повний текст джерела
Анотація:
L'extraction de connaissances à partir de données (ECD) cherche à produire de nouvelles connaissances utilisables en tirant parti des grandes bases de données. Avant de procéder à la phase de fouille de données, étapes phare de l'ECD, pour pouvoir opérer un apprentissage automatique, un ensemble de questions et de problèmes se posent : comment avoir a priori une idée de la manière dont les étiquettes de la variable à apprendre peuvent être séparées en fonction des variables prédictives ? comment traiter les bases pour lesquelles nous savons que des étiquettes sont fausses ? comment transformer des variables prédictives continues en variables discrètes en tenant compte globalement des informations de la variable à prédire ? Nous proposons diverses réponses à ces problèmes. Ces solutions exploitent les propriétés d'outils géométriques : les graphes de voisinage. Le voisinage entre des individus projetés dans un espace à p dimensions nous fournit un moyen de caractériser la ressemblance entre les exemples à apprendre. A partir de ceci, nous élaborons un test statistique basé sur le poids des arêtes qu'il faut retirer dans un graphe de voisinage pour n'avoir que des sous-graphes d'une seul étiquette, ce qui nous informe de la séparabilité a priori des classes. Nous prolongeons ces réflexions dans le cadre de la détection d'individus dont l'étiquette est douteuse : nous proposons une stratégie de suppression et de réétiquetage d'exemples douteux dans l'échantillon d'apprentissage afin d'augmenter la qualité des modèles prédictifs exploitant cet échantillon de données. Ces travaux sont étendus au cas particulier où la variable à prédire est numérique : nous présentons un test de structure pour la prédiction d'une telle variable. Enfin, nous présenton une méthode de discrétisation supervisée polythétique qui repose sur les graphes de voisinage et montrons ses performances en l'employant avec une méthode d'apprentissage supervisé que nous avons développée
Knowledge discovery tries to produce novel and usable knowledge from the databases. In this whole process, data mining is the crucial machine learning step but we must asked some questions first: how can we have an a priori idea of the way of the labels of the class attribute are separable or not? How can we deal with databases where some examples are mislabeled? How can we transform continuous predictive attributes in discrete ones in a supervised way by taking into account the global information of the data ? We propose some responses to these problems. Our solutions take advantage of the properties of geometrical tools: the neighbourhood graphs. The neighbourhood between examples projected in a multidimensional space gives us a way of characterising the likeness between the examples to learn. We develop a statistical test based on the weight of edges that we must suppress from a neighbourhood graph for having only subgraphs of a unique class. This gives information about the a priori class separability. This work is carried on in the context of the detection of examples from a database that have doubtful labels: we propose a strategy for removing and relabeling these doubtful examples from the learning set to improve the quality of the resulting predictive model. These researches are extended in the special case of a continuous class to learn: we present a structure test to predict this kind of variable. Finally, we present a supervised polythetic discretization method based on the neighbourhood graphs and we show its performances by using it with a new supervised machine learning algorithm
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Sall, Serigne Touba. "Approche par les données de panel dans la théorie asymptotique des indicateurs de pauvreté." Paris 6, 2012. http://www.theses.fr/2012PA066286.

Повний текст джерела
Анотація:
Cette thèse est consacrée à l’élaboration de théories asymptotiques de convergence vague pour une large classe de statistiques issues de l’analyse économique de la pauvreté appelées indices de pauvreté. Nous nous intéresserons particulièrement aux lois asymptotiques de ces statistiques lorsqu’elles dépendent du temps, correspondant à un type de données dites longitudinales. Dans un premier temps, nous effectuons une analyse statique correspondant au cas où le temps est fixé. En utilisant la théorie des valeurs extrêmes, nous établissons sous des conditions peu restrictives la normalité asymptotique de l’indice général de pauvreté (GPI). Des simulations confortent ces résultats qui permettent d’estimer la pauvreté pour une région donnée en un moment précis avec de corrects intervalles de confiance. Nous passons ensuite à une analyse dynamique de la pauvreté, où les mêmes individus, ou ménages, sont observés dans le temps. Nous avons alors des données longitudinales, c’est à dire des observations d’une variable indexée par le temps, appelées données de panel par les économistes. En utilisant la théorie moderne de la convergence vague, nous établissons la loi asymptotique de GPI, dans le cas uniforme. Nous avons appliqué nos résultats aux bases de données ESAM(enquête sénégalaise auprès des ménages). Ce qui a permis de comparer l’évolution de la pauvreté pour les régions du Sénégal entre 1996 et 2001
Aim of the thesis is to study the limit distributions of estimators that arise in the analysis of poverty, called poverty indices. We are especially concerned with the asymptotic theory of the time-dependent general poverty index (GPI), including all the usual indices in the literature. We settle uniform weak convergence of such statistics. As a first step, we consider the indices for a fixed time. Using extreme value theory and Hungarian approximations, we need asymptotic laws for the GPI, and entirely describe the asymptotic normality of this class. These results have natural applications to derive asymptotic confidence intervals for indices based on data collected within developing countries. However, we still need to handle longitudinal data, where the poverty situation is analysed over a continuous period of time. In this case, we are faced with longitudinal data, called panel data, and led to consider the time-dependent general poverty index. Based on weak convergence theory for empirical processes, developed by Vaart and Wellner (1995), we settle the uniform weak convergence of such statistics. We obtained uniform asymptotic laws of GPI. Our results yield tools to handle discrete and continuous longitudinal data. As application we used Senegalese data ESAM (enquete senegalaise aupres des ménages) available for two periods, 1996 and 2001. In this way, comparisons are made between different regions on a fixed moment in time or between the situations of the same region at different time instants
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Duchesne, Karine. "La qualité des emplois au sein d'entreprises d'économie sociale indicateurs objectifs et perceptions des acteurs." Mémoire, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/2479.

Повний текст джерела
Анотація:
La fin des années 1990 s'est déroulée avec l'émergence de nombreux problèmes à la fois sociaux, économiques et politiques: crise de l'emploi et de l'État-providence, chômage accru, brisure du lien social, pour ne nommer que ceux-là. Parmi les diverses façons de réagir à ces problèmes, l'économie sociale se pose comme une alternative possible à ces maux, en créant un bassin d'emplois permettant d'inclure les personnes actuellement exclues du marché du travail. La qualité des emplois issus de ce secteur d'activité est par contre source de débats. L'économie sociale favorise-t-elle véritablement la création d'emplois décents augmentant la qualité de vie des travailleurs? Offre-t-elle plutôt des emplois de misère contribuant à inscrire ce secteur dans une forme de ghettoïsation? Dans cette optique, l'économie sociale est-elle utilisée par l'État afin de se soustraire à ses responsabilités envers certains problèmes sociaux? L'économie sociale pourra-t-elle émerger conformément à ses valeurs et ainsi, contribuer à démocratiser l'économie? Cette façon de faire de l'économie sera-t-elle un levier permettant de revitaliser le social et l'économique? Cette recherche a l'originalité de se centrer sur la qualité des emplois, non seulement en examinant les conditions de travail dites objectives (rémunération, statut, nombre d'heures, etc.), mais aussi en intégrant les éléments constituant une qualité d'emploi selon les détenteurs de ces postes; la perception de l'employé a ainsi une place de choix dans l'évaluation de la qualité des emplois. C'est l'approche de recherche, l'interationnisme symbolique, qui a permis de situer le travailleur au centre de cette étude. Cinq entreprises d'économie sociale oeuvrant dans des secteurs d'activité variés ont constitué l'échantillon de ce mémoire. Cette recherche a démontré que les conditions objectives de travail ne correspondent pas aux scénarios pessimistes dépeints par certains chercheurs. Toutefois, si les entreprises offrent des avantages sociaux intéressants en termes de congés annuels et ponctuels, des améliorations sont à apporter du côté du salaire ainsi que de la permanence des emplois. En ce qui concerne les principaux intéressés, les employés, leur discours a fait émerger quatre clés constituant la qualité de leur emploi: le contexte de travail humanisé, le processus de gestion démocratique, le sentiment d'appartenance et celui de la réalisation de soi. Ces quatre clés sont liées à la dimension sociale des entreprises. Enfin, certains enjeux de l'économie sociale sont ressortis rendant parfois difficile la création d'emplois de qualité: la complexité de concilier les dimensions économique et sociale au sein d'une même entreprise, la précarité financière des organisations et les contraintes à faire émerger la vie démocratique. Étant soucieuse de refléter la représentation des femmes dans certaines entreprises, j'emploie le féminin pour désigner le personnel quand celui-ci en est uniquement composé. C'est également le cas pour parler des directions d'entreprises puisque cet échelon est entièrement occupé par des femmes.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Cécillon, Lauric. "Quels indicateurs pour évaluer la qualité de sols forestiers soumis à des contraintes environnementales fortes ?" Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10149.

Повний текст джерела
Анотація:
Mountain soils are facing strong changes in land-use and climate, which expose them to three main threats: erosion, loss of biodiversity and organic matter decline. This thesis focuses on mountain soil quality, through key ecosystem processes (decomposition and aggregation of soil organic matter) occurring in topsoils. These key processes control the provision of several soil ecosystem services such as carbon sequestration, nutrient supply, and biological activity. We have tested both simple and composite soil quality indices under environmental constraints in two study sites. 80th sites are characterized by a strong vegetation gradient generated by natural constraints (sporadic permafrost in Dévoluy mountains, Isère, France), or human constraints (wildfire chronosequence in the Maures mountains, Var, France). Our results demonstrate that both soil microclimate and wildfire constraints affect soil attributes linked to decomposition and aggregation processes in topsoils. Soil biota (microflora and microfauna) is markedly affected, indicating modifications in soil processes controlled by soil foodweb (main decomposition and aggregation pathways, potential nitrification and denitrification). Near infrared reflectance spectroscopy (NIRS) is found to be a powerful tool for assessing the modifications of physico-chemical and biological quality of soils under environ mental constraints
Les sols des régions de montagne sont confrontés à de fortes modifications climatiques et d'usages qui les rendent particulièrement sensibles à trois menaces: l'érosion, la perte de matière organique et de biodiversité. Cette thèse aborde la question de la qualité des sols sous l'angle de processus clés (décomposition et agrégation de la matière organique) au sein de différents compartiments de la partie superficielle du sol vivant (épipédon). Ces processus clés interviennent dans l'intensité des services rendus par les sols comme la séquestration de carbone, la fertilité des sols et le maintien de leur activité biologique. Parmi les indicateurs utilisés dans l'évaluation de la qualité des sols, nous avons choisi de tester des indicateurs simples et composites reliés aux processus clés de deux types d'écosystèmes subissant de fortes contraintes environnementales. Deux sites d'étude situés dans les massifs du Dévoluy (Isère) et des Maures (Var) ont été utilisés. Tous deux sont marqués par un fort gradient de végétation induit par des contraintes naturelles (sols à permafrost pour le site du Dévoluy) ou anthropiques (incendies pour le site des Maures). Dans ce travail, nous formulons trois hypothèses: (i) il existe au niveau des sols une signature originale des modifications environnementales influençant le fonctionnement des écosystèmes forestiers; (ii) cette signature est liée à la qualité des sols et recouvre une partie biologique largement sous estimée; (iii) la réflectance du sol résume cette signature et permet sa caractérisation dans des conditions contrastées. Les résultats de la thèse démontrent que les contraintes liées au pédoclimat et aux incendies induisent de fortes modifications des variables décrivant les processus de décomposition et d'agrégation dans les sols. Le compartiment biologique du sol (microflore ou microfaune) est particulièrement affecté par ces contraintes, révélant des modifications dans les processus liés aux chaînes trophiques des sols (voies préférentielles de décomposition et d'agrégation biologique, nitrification et dénitrification potentielles). La spectroscopie proche infrarouge se révèle être un outil pertinent pour rendre compte des modifications de qualité physico-chimiques mais aussi biologiques des sols soumis à de fortes contraintes
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Cécillon, Lauric. "Quels indicateurs pour évaluer la qualité de sols forestiers soumis à des contraintes environnementales fortes ?" Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00396553.

Повний текст джерела
Анотація:
Les sols des régions de montagne sont confrontés à de fortes modifications climatiques et d'usages qui les rendent particulièrement sensibles à trois menaces : l'érosion, la perte de matière organique et de biodiversité. Cette thèse aborde la question de la qualité des sols sous l'angle de processus clés (décomposition et agrégation de la matière organique) au sein de différents compartiments de la partie superficielle du sol vivant (épipédon). Ces processus clés interviennent dans l'intensité des services rendus par les sols comme la séquestration de carbone, la fertilité des sols et le maintien de leur activité biologique. Parmi les indicateurs utilisés dans l'évaluation de la qualité des sols, nous avons choisi de tester des indicateurs simples et composites reliés aux processus clés de deux types d'écosystèmes subissant de fortes contraintes environnementales. Deux sites d'étude situés dans les massifs du Dévoluy (Isère) et des Maures (Var) ont été utilisés. Tous deux sont marqués par un fort gradient de végétation induit par des contraintes naturelles (sols à permafrost pour le site du Dévoluy) ou anthropiques (incendies pour le site des Maures). Dans ce travail, nous formulons trois hypothèses : (i) il existe au niveau des sols une signature originale des modifications environnementales influençant le fonctionnement des écosystèmes forestiers ; (ii) cette signature est liée à la qualité des sols et recouvre une partie biologique largement sous estimée ; (iii) la réflectance du sol résume cette signature et permet sa caractérisation dans des conditions contrastées. Les résultats de la thèse démontrent que les contraintes liées au pédoclimat et aux incendies induisent de fortes modifications des variables décrivant les processus de décomposition et d'agrégation dans les sols. Le compartiment biologique du sol (microflore ou microfaune) est particulièrement affecté par ces contraintes, révélant des modifications dans les processus liés aux chaînes trophiques des sols (voies préférentielles de décomposition et d'agrégation biologique, nitrification et dénitrification potentielles). La spectroscopie proche infrarouge se révèle être un outil pertinent pour rendre compte des modifications de qualité physico-chimiques mais aussi biologiques des sols soumis à de fortes contraintes.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Al, Chami Zahi. "Estimation de la qualité des données multimedia en temps réel." Thesis, Pau, 2021. http://www.theses.fr/2021PAUU3066.

Повний текст джерела
Анотація:
Au cours de la dernière décennie, les fournisseurs de données ont généré et diffusé une grande quantité de données, notamment des images, des vidéos, de l'audio, etc. Dans cette thèse, nous nous concentrerons sur le traitement des images puisqu'elles sont les plus communément partagées entre les utilisateurs sur l'inter-réseau mondial. En particulier, le traitement des images contenant des visages a reçu une grande attention en raison de ses nombreuses applications, telles que les applications de divertissement et de médias sociaux. Cependant, plusieurs défis pourraient survenir au cours de la phase de traitement et de transmission : d'une part, le nombre énorme d'images partagées et produites à un rythme rapide nécessite un temps de traitement et de livraison considérable; d’autre part, les images sont soumises à un très grand nombre de distorsions lors du traitement, de la transmission ou de la combinaison de nombreux facteurs qui pourraient endommager le contenu des images. Deux contributions principales sont développées. Tout d'abord, nous présentons un framework d'évaluation de la qualité d'image ayant une référence complète en temps réel, capable de : 1) préserver le contenu des images en s'assurant que certaines informations visuelles utiles peuvent toujours être extraites de l'image résultante, et 2) fournir un moyen de traiter les images en temps réel afin de faire face à l'énorme quantité d'images reçues à un rythme rapide. Le framework décrit ici est limité au traitement des images qui ont accès à leur image de référence (connu sous le nom référence complète). Dans notre second chapitre, nous présentons un framework d'évaluation de la qualité d'image sans référence en temps réel. Il a les capacités suivantes : a) évaluer l'image déformée sans avoir recours à son image originale, b) préserver les informations visuelles les plus utiles dans les images avant de les publier, et c) traiter les images en temps réel, bien que les modèles d'évaluation de la qualité des images sans référence sont considérés très complexes. Notre framework offre plusieurs avantages par rapport aux approches existantes, en particulier : i. il localise la distorsion dans une image afin d'évaluer directement les parties déformées au lieu de traiter l'image entière, ii. il a un compromis acceptable entre la précision de la prédiction de qualité et le temps d’exécution, et iii. il pourrait être utilisé dans plusieurs applications, en particulier celles qui fonctionnent en temps réel. L'architecture de chaque framework est présentée dans les chapitres tout en détaillant les modules et composants du framework. Ensuite, un certain nombre de simulations sont faites pour montrer l'efficacité de nos approches pour résoudre nos défis par rapport aux approches existantes
Over the past decade, data providers have been generating and streaming a large amount of data, including images, videos, audio, etc. In this thesis, we will be focusing on processing images since they are the most commonly shared between the users on the global inter-network. In particular, treating images containing faces has received great attention due to its numerous applications, such as entertainment and social media apps. However, several challenges could arise during the processing and transmission phase: firstly, the enormous number of images shared and produced at a rapid pace requires a significant amount of time to be processed and delivered; secondly, images are subject to a wide range of distortions during the processing, transmission, or combination of many factors that could damage the images’content. Two main contributions are developed. First, we introduce a Full-Reference Image Quality Assessment Framework in Real-Time, capable of:1) preserving the images’content by ensuring that some useful visual information can still be extracted from the output, and 2) providing a way to process the images in real-time in order to cope with the huge amount of images that are being received at a rapid pace. The framework described here is limited to processing those images that have access to their reference version (a.k.a Full-Reference). Secondly, we present a No-Reference Image Quality Assessment Framework in Real-Time. It has the following abilities: a) assessing the distorted image without having its distortion-free image, b) preserving the most useful visual information in the images before publishing, and c) processing the images in real-time, even though the No-Reference image quality assessment models are considered very complex. Our framework offers several advantages over the existing approaches, in particular: i. it locates the distortion in an image in order to directly assess the distorted parts instead of processing the whole image, ii. it has an acceptable trade-off between quality prediction accuracy and execution latency, andiii. it could be used in several applications, especially these that work in real-time. The architecture of each framework is presented in the chapters while detailing the modules and components of the framework. Then, a number of simulations are made to show the effectiveness of our approaches to solve our challenges in relation to the existing approaches
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Mahmoud, Salwa. "Les indicateurs de la recherche scientifique en Tunisie. Etude biblio-scientométrique du secteur médical." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30053.

Повний текст джерела
Анотація:
La recherche constitue l'investissement par excellence. Les chercheurs ont une activite qui se materialise principalement par la publication. La presente etude tente une evaluation de la production scientifique des activites de recherche en tunisie sans pour autant pretendre en mesurer exactement les effectifs. Les citations recues par les documents sont egalement etudiees dans le souci de l'examen d'un eventuel impact de l'ecrit scientifique. Il s'agit donc d'une determination des tendances de l'activite scientifique au sens d'une evaluation dynamique. Pour ce faire differentes approches sont considerees telles que : - la description des intrants de la recherche avec essentiellement un apercu sur son financement, les budgets alloues, les priorites etablies et les ressources humaines utilisees - l'analyse des extrants effectuee par le recours a certaines bases de donnees internationales d'une part et une investigation par enquete d'autre part. Ceci a d'abord permis la mise en place des premices d'une base de donnees bibliographique nationale specialisee puis l'examen d'un eventuel changement de tendances par rapport aux donnees fournies par les bases de donnees internationales consultees en amont. Certains indicateurs sont presentes et des comparaisons notamment evolutives sont etudiees moyennant une investigation biblio-scientometrique. L'emergence et l'obsolescence de themes et d'auteurs de recherches ainsi que leur mouvance sont etudiees a travers un positionnement sur des diagrammes dits strategiques. Les liens tisses entre les equipes ainsi que ceux qui associent les domaines forment des reseaux representes graphiquement. Le nombre et l'intensite des liens etablis entre les auteurs et les principaux champs d'activites sont mis en exergue. Toutes ces investigations, la collecte et l'elaboration de l'information mettent en place un systeme d'information qui constituerait la cle de voute d'une veille scientifique necessaire a l'aide a la decision.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Masselot, Gérard. "La synécoparcimonie : un outil d'évaluation biologique de la qualité des eaux courantes : Théorie et applications." Paris, Muséum national d'histoire naturelle, 2005. http://www.theses.fr/2002MNHN0027.

Повний текст джерела
Анотація:
Un nouvel outil d'évaluation biologique de la qualité des eux courantes, la synécoparcimonie, est proposé et testé. Ses bases méthodologiques sont développés. Sa validité est testée sur plusieurs cas concrets, d'origines géographiques diverses (néarctique et ouest-paléarctique). Il est montré que cet outil peut être utilisé tant pour analyser des peuplements faunistiques que microfloristiques. L'outil nouveau permet de minimiser les hypothèses ad hoc. Il autorise la confrontation directe et rigoureuse des données biologiques avec les caractéristiques mésologiques des cours d'eau. La notion de taxon indicateur est discutée, et le concept de taxon signifiant est proposé. Les outils indiciels européens actuels d'évaluation biologique de la qualité des eaux courantes sont étudiés et critiqués. Il est démontré que la méthode proposé peut permettre une approche pertinente de la qualité des eaux et/ou des milieux aquatiques. Son domaine de validité est précisé, et les études complémentaires à réaliser pour en parfaire la mise en place sont exposées. La nécessité de l'utilisation de matrices de données biologiques qualitatives proches de l'exhaustivité, y compris en retenant les taxons " rares ", est montrées. Le niveau spécifique de détermination des taxons est confirmé comme étant le plus informatif. La méthode proposée pourrait s'intégrer à terme dans l'ensemble des outils à disposition des gestionnaires de l'eau douce en Europe
A new freshwater biomonitoring tool, the synecoparsimony method, is proposed and tested. The methodological bases are explained. Its validity is tested on several real cases, of various geographical origins (neartic and west-palearctic). It is shown that this method can be used as well to analyze faunistic data as microfloristic. The new tool makes it possible to minimize the ad hoc hypothesis. It enables direct and rigorous confrontation between biological data and the mesologic characteristics of the rivers. The concept of “bio-indicator” taxa is discussed, and the concept of “significant taxa” is proposed. The new European freshwater biomonitoring tools ara studied and criticized. It is shownthat the new suggested method can allow a relevant approach of the quality of water and/or of aquatic environments. Its validity field is specified, and the complementary studies necessary to improve this new tool are exposed. The need for the use of “total evidence” matrices of qualitative biological data, necessary including “rare” taxa, is shown. The specific level of determination of taxa is confirmed as being the most informative. The method we propose could be integrated as a complementary tool available for freshwater managers in Europe
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Beauger, Davy. "Le retransqol : une échelle de mesure de la qualité de vie spécifique aux patients porteurs d'un greffon rénal fonctionnel. : Développement, adaptation et application." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5057.

Повний текст джерела
Анотація:
La prise en compte de la notion de la qualité de vie (QDV) du patient est révélatrice d'un changement profond dans la pratique médicale, notamment en néphrologie, pour les patients atteints d'insuffisance rénale chronique terminale (IRCT). Compte tenu de la prévalence, de l'incidence et de la mortalité de cette maladie en France, il paraissait important de pouvoir mesurer de façon pertinente et cohérente la QDV des patients atteints d'IRCT. La QDV liée à la santé constitue un indicateur pour apprécier les conséquences de cette maladie. En 2007, après une étude de revue de la littérature concernant les outils de mesure de la QDV des IRCT, il a été mis en évidence un manque de questionnaires spécifiques validés en langue française. Il existait donc un besoin réel d'évaluer la QDV de ces patients, et plus particulièrement celle des patients porteurs d'un greffon rénal fonctionnel.En 2008, une échelle spécifique a donc été développée et validée pour mesurer la QDV des patients greffés rénaux : le ReTransQol (ou RTQ). Après 5 années d'utilisation du RTQ dans diverses études nationales, cet outil a été amélioré et une nouvelle version a vu le jour: le RTQ V2. Après de nombreuses analyses, cette échelle présente actuellement de bonnes propriétés psychométriques et est validée auprès de diverses populations d'études. Le RTQ V2 sera d'ailleurs utilisé dans des études internationales (Brésil, Allemagne, Canada...), et une validation transculturelle est prévue. Le RTQ V2 est donc un outil de mesure spécifique de la QDV adapté pour une utilisation en routine auprès des patients porteurs d'un greffon rénal fonctionnel
The inclusion of the concept of quality of life (QOL) is indicative of a profound change in the way of practicing medicine, particularly in the field of nephrology for patients with end stage renal disease (ESRD). Given the prevalence, incidence and mortality of this disease in France, it seemed important, even essential, to measure properly, appropriately and consistently, the QOL of patients with ESRD. Health related quality of life (HRQOL) is therefore an important indicator of results to evaluate the consequences of this disease, the effect of medical procedures, treatment effects, or the impact of health policies.In 2007, after a study of literature concerning the assessment of QOL's scales of patients with ESRD, it was revealed a certain lack, quantitative or qualitative, of specific questionnaires for measuring QOL for ESRD patients validated in French, especially for patients with a functioning kidney transplant.In 2008, a specific scale has been developed and validated to measure the QOL of renal transplant recipients: the ReTransQol (Renal Transplant Quality of life questionnaire). After 5 years of use and application of ReTransQol in different national studies, this tool has been improved and a new version was created: the ReTransQol V2 (or RTQ V2). After lots of analysis, this scale has currently good psychometric properties and has been validated in various populations. The RTQ V2 is also used in international studies (Brazil, Germany, Canada ...), and a cross-cultural validation of the scale is planned.The ReTransQol V2 is a specific tool to assess the HRQOL and is suitable for a routine use among renal transplant recipients
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Gilliers, Camille. "Recherche d'indicateurs de la qualité des écosystèmes côtiers : application aux nourriceries côtières et estuariennes des poissons plats." Littoral, 2004. http://www.theses.fr/2004DUNK0145.

Повний текст джерела
Анотація:
Les secteurs marins côtiers et estuariens du littoral français de Manche-Atlantique constituent des nourriceries pour les poissons et notamment les poissons plats. Ce sont des zones abritées qui jouent un rôle clé dans le succès du renouvellement des populations puisque les juvéniles viennent s'y alimenter et continuer leur croissance jusqu'à maturité sexuelle. En raison de leur situation géographique, les nourriceries sont soumises aux pressions anthropiques (rejets urbains, industriels, agricoles, aménagements côtiers. . . ). Depuis quelques années, la caractérisation et la protection des habitats halieutiques essentiels sont considérées comme éléménts fondamentaux pour une gestion durable des ressources marines. Toutefois, les outils permettant d'apporter un diagnostic sur la fonctionnalité et la qualité de ces habitats restent à définir. Plusieurs indicateurs biologiques mesurés sur des juvéniles de poissons plats, à différents niveaux d'organisation biologique et répondant à différentes échelles de temps aux perturbations environnementales, ont donc été testés afin d'évaluer les performances biologiques des individus, puis la qualité de leurs nourriceries le long du littoral de Manche-Atlantique : (1) des indicateurs mesurés au niveau de l'individu (indices de croissance et de condition), (2) des indicateurs mesurés au niveau de la population (les densités des juvéniles). Les résultats démontrent la nécessité de coupler plusieurs indicateurs car aucun appliqué séparément n'apporte des informations suffisantes pour un diagnostic environnemental. Sur le littoral étudié, l'analyse des indicateurs testés met en évidence deux secteurs présentant des signes de perturbations et des habitats moins favorables pour les juvéniles de soles (Solea solea L. ) : les estuaires de la Seine et de la Gironde. Il est néanmoins difficile de dissocier les causes naturelles des causes anthropiques en l'absence de plus de données environnementales, et donc de conclure définitivement sur l'influence des perturbations anthropiques sur la qualité des nourriceries dans ces esturaires. Les différentes approches spatiales ont permis de montrer que l'interprétation des indicateurs biologiques à grandes échelle reste délicate. Il semble, en effet, que les performances biologiques des juvéniles de sole soient influencées par des facteurs locaux propres à chaque habitat (chaque secteur de nourricerie), particulièrement en ce qui concerne la croissance, et notamment en terme de perturbations anthropiques. Celles-ci sont, en effet, localisées et ne semblent pas diffuser à l'échelle de la nourricerie entière. L'utilisation conjointe d'indicateurs de croissance, de condition et de densités semble pertinente pour évaluer la qualité des nourriceries de poissons. Néanmoins, tout diagnostic basé sur des indicateurs biologiques doit être complété par des mesures physico-chimiques de la qualité du milieu et/ou des biomarqueurs
Inshore shallow waters and estuaries along much of the western coasts of France provide nursery areas, which have been identified as Essential Fish Habitat, for a wide variety of fish species and especially commercial flatfish. Worldwide increasing industrial development and human population growth have led to rise of environmental damages in the marine environment and human pressure on marine habitats keeps strong. This assertion is especially verified on coastal marine areas, particularly submitted to the adverse effects of anthropogenic disturbances. As damages to habitat quality are one of the most harmful means of slowing or preventing stock from recoveries, one of the main areas are emphasis in current fisheries ecological research is the conservation and enhancement of Essential Fish Habitats. The main goal of the study was to find suitable bioindicators measured on fish to assess the habitat quality of fish nurseries along the Eastern English Channel and Bay of Biscay coasts, with a focus on sites heavily impacted by human activities such as the important estuaries and harbour areas. Subsequently, biological indicators measured both at the individual (growth, size, condition) and population (density) levels were used to assess the biological performances of juvenile fishes and the habitat quality of different nursery areas. The results demonstrate that is necessary to use a pool of bioindicators to assess the quality of habitats as no single measure may provide an overall description of habitat quality. Concerning the habitat quality of the fish nurseries along the western coasts of France, the analyses point out the estuaries of Seine and Gironde where levels of contamination of coastal waters are especially high, and the combination of fish grawth performance and density significantly lower than in other nursery areas. Nevertheless, the results also suggest that it is more pertinent to work on a small spatial scale to increase the sensitivity and the usefulness of the bioindicators, especially to avoid problems related to geographical gradients and to estimate eventual differences due to anthropogenic perturbations on habitat at a local scale. The combination of several bioindicators measured on juvenile fishes appears to provide reliable quantitative indicators of the quality of habitat on the nursery grounds and notably to point out the disturbances in survival and growth in especially polluted areas. Hence, such indicators may contribute to improve assessment of environmental quality of essential fish habitats in the aim of a sustainable management of fisheries ressources
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Beryouni, Khadija. "Variabilité des données environnementales : exemple des sédiments marins." Perpignan, 2012. http://www.theses.fr/2012PERP1088.

Повний текст джерела
Анотація:
Le travail présenté dans ce mémoire de thèse a pour objectif d’optimiser l’étude des sédiments marins dans un objectif d’assurance qualité. Pour illustrer cette approche, je me suis focalisé sur la fraction fine du sédiment. En sédimentologie, la fraction fine est la fraction du sédiment dont la taille des particules est inférieure à une dimension donnée (2, 10, 20, 40, 50, 63,80…µm). Son pourcentage est un paramètre fondamental pour de nombreuses études des sédiments puisqu’on l’utilise aussi bien en géochimie, en géophysique, en pédologie, en archéologie. Aujourd’hui, deux approches se font concurrence et complémentaire dans les laboratoires pour déterminer le taux de fraction fine. Le tamisage considéré comme une méthode ancienne mais qui a fait ses preuves et la diffraction laser, méthode plus récente. Chacune d’entre elle est encensée ou vilipendée par de nombreux techniciens et/ou chercheurs. Afin de mieux comprendre ce « casus belli » entre les sédimentologues, j’ai, dans une première étape, remis en question toutes les étapes d’obtention du taux de fraction fine afin d’identifier les sources d’approximation et d’erreurs qui entachent éventuellement le résultat obtenu. Ce travail a été réalisé à la fois pour la méthode par tamisage humide et pour la méthode par diffraction laser. Dans une seconde étape, j’ai cherché a mettre en évidence toutes les approximations qui sont réalisées lors de la chaîne qui relie l’élaboration du plan de prélèvements en mer à l’interprétation. Ainsi, l’influence du schéma de prélèvement, du système de prélèvement, la variabilité spatiale à différentes échelles (du m à la centaine de m) ont été étudiées. Pour plus d’universalité, plusieurs faciès sédimentaires ont été étudiés sur deux sites aux caractéristiques environnementales très différentes. La lagune de Oualidia a été étudiée dans le cadre de la coopération Franco-Marocaine (MA/07/179) et la baie de Seine orientale dans le cadre du programme "Colmatage" financé par le GIP "Seine Aval". Les résultats obtenus vont permettre d’optimiser la structuration des bases de données sédimentologiques mises en place en précisant l’importance de certains champs qui jusqu’à présent ne sont jamais renseignés. Seule la prise en compte de ces informations complémentaires permet une interprétation de la meilleure « Qualité » possible. Ainsi, par exemple, l’étude de la variabilité temporelle peut être optimisée lorsqu’on peut faire la différence entre les variabilités naturelles, celles que l’on recherche, et les variabilités, prises au sens large, liées à la « mesure »
The work presented in this thesis aims to optimize the study of marine sediments in an objective quality assurance. To illustrate this approach, I focused on the fine fraction of sediment. In sedimentology, the fine fraction is the fraction of the sediment particles whose size is less than a given size (2, 10, 20, 40, 50, 63, 80… µm). His percentage is a fundamental parameter for many studies of sediments because the used both in geochemistry, geophysics, soil science, archeology. Today, two approaches are competing and complementary in laboratories to determine the rate of fine fraction. Sieving considered an old method but which has proven itself and the laser diffraction which is a new method. Each one is praised or vilified by many technicians and / or researchers. To better understand this "casus belli" between sedimentologists, I, first questioned all the steps of obtaining the rate of fine fraction to identify sources of approximation errors and possibly taint the result. This work was carried out for both the method by wet sieving and laser diffraction method. In a second step, I tried to highlight all approximations that are made in the chain that links the development of offshore sampling plan for interpretation. Thus, the influence of sampling scheme, sampling system, the spatial variability at different scales (from meters to hundred meters) have been studied. For universality, several sedimentary facies were studied at two sites with very different environmental characteristics. Oualidia lagoon has been studied in the framework of Franco-Moroccan cooperation (MA/07/179) and the eastern Bay of Seine in the program "Colmatage" funded by the GIP "Seine Aval". The results will help to optimize the structure of sedimentological databases implemented by specifying the importance of certain fields that until now were never informed. Only the inclusion of this additional information allows a better interpretation of the "Quality" as possible. For example, the study of temporal variability can be optimized when you can make the difference between natural variability, those that are looking for, and variability, in a broad sense, related to "measure"
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Devillers, Rodolphe. "Conception d'un système multidimensionnel d'information sur la qualité des données géospatiales." Phd thesis, Université de Marne la Vallée, 2004. http://tel.archives-ouvertes.fr/tel-00008930.

Повний текст джерела
Анотація:
L'information géographique est maintenant un produit de masse fréquemment manipulé par des utilisateurs non-experts en géomatique qui ont peu ou pas de connaissances de la qualité des données qu'ils utilisent. Ce contexte accroît significativement les risques de mauvaise utilisation des données et ainsi les risques de conséquence néfaste résultant de ces mauvaises utilisations. Cette thèse vise à fournir à des utilisateurs experts ou des experts en qualité une approche leur permettant d'évaluer la qualité des données et ainsi être à même de conseiller des utilisateurs non-experts dans leur utilisation des données. Cette approche se base sur une structuration des données de qualité dans une base de données multidimensionnelle et une communication dynamique et contextuelle utilisant des indicateurs de qualité affichés dans un système SOLAP (Spatial On-Line Analytical Processing) combiné à un système d'information géographique.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Weber-Baghdiguian, Lexane. "Santé, genre et qualité de l'emploi : une analyse sur données microéconomiques." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED014/document.

Повний текст джерела
Анотація:
Cette thèse étudie l'influence du travail sur la qualité de l'emploi et la qualité de vie des individus. Cette dernière est approximée par la perception que les individus ont de leur santé. Le premier chapitre étudie les conséquences de la perte d'emploi liée à la fermeture d'un établissement sur l'ensemble des dimensions de la qualité de l'emploi retrouvé. Nous montrons que ce choc induit une dégradation, y compris sur le long terme, des salaires, de l'insécurité de l'emploi perçue, de la qualité de l'environnement de travail et de la satisfaction des travailleurs. Les deux derniers chapitres tentent de comprendre les déterminants des différences de santé perçue selon le genre. Dans le deuxième chapitre, nous analysons le rôle de la santé mentale dans les écarts de santé déclarée selon le genre. Le troisième chapitre étudie l'influence des normes sociales au travail, sur la santé perçue. Nous montrons que les femmes comme les hommes travaillant dans des collectifs de travail féminins déclarent davantage de problèmes de santé spécifiques que celles et ceux travaillant dans des collectifs masculins. Ce travail souligne donc, d'une part, l'effet négatif de la perte d'emploi sur la qualité de l'emploi retrouvé et la satisfaction à long terme et, d'autre part, l'importance du mal-être et des normes sociales au travail pour comprendre les différences de santé perçue entre les genres
This thesis studies the influence of work on job and life quality, the latter being considered through the perception that individuals have of their own health. The first chapter focuses on the long-term effects of job losses due to plant closure on job quality. We show that job loss negatively affects wages, perceived job insecurity, the quality of the working environment and job satisfaction, including in the long run. The two last chapters investigate gender differences in self-reported health. The second chapter provides descriptive evidence on the relationships between self-assessed health, gender and mental health problems, i.e. depression and/or affective pains. Finally, in the last chapter, we study the influence of social norms as proxied by the gender structure of the workplace environment, on gender differences in self-reported health. We show that both women and men working in female-dominated environments report more specific health problems than those who work in male-dominated environments. The overall findings of this thesis are twofold. First, losing a job has a negative impact on several dimensions of job quality and satisfaction in the long run. Secondly, mental diseases and social norms at work are important to understand gender-related differences in health perceptions
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Puricelli, Alain. "Réingénierie et Contrôle Qualité des Données en vue d'une Migration Technologique." Lyon, INSA, 2000. http://theses.insa-lyon.fr/publication/2000ISAL0092/these.pdf.

Повний текст джерела
Анотація:
Cette thèse a pour but de développer une méthodologie de traitement de la cohérence logique dans un Système d'Information Géographique (SIG), afin de fiabiliser la migration des données dans le cas d'une migration technologique (changement de système et de structuration). Cette méthodologie est ensuite appliquée à un cas concret de SIG, celui de la Communauté Urbaine de Lyon (le "SUR"). La cohérence logique est l'un des critères qualité communément admis au sein de la communauté des producteurs et utilisateurs de données géographiques, au même titre que la précision géographique ou l'exhaustivité par exemple. Après une présentation des éléments de qualité et des métadonnées dans les SIG, un état des lieux est donné concernant les différents travaux de normalisation dans ces domaines. Les différentes normes en cours d'élaboration (du CEN, de l'ISO et du FGDC entre autres) sont analysées et commentées. Une méthodologie de détection et de correction d'erreurs géométriques et topologiques est ensuite détaillée, dans le cadre de bases de données géographiques vecteur existantes. Trois types d'erreurs sont identifiés, respectivement les erreurs structurelles, géométriques et sémantiques. Pour chacune de ces familles d'anomalies, des méthodes de détection basées sur des théories établies (contraintes d'intégrité, topologie, géométrie algorithmique) sont proposées ainsi que des pistes pour la correction. Cette approche est ensuite mise en application dans le cadre des bases de données du SUR. Afin de compléter cette application, un mécanisme particulier a été développé pour traiter également les erreurs de tessellations, non prises en compte par la méthodologie (qui utilise les relations topologiques binaires). Enfin pour assurer la cohérence des corrections, une méthode a été mise en place pour propager les corrections dans le voisinage des objets, aussi bien à l'intérieur d'une couche de données qu'entre couches ou entre bases de données différentes du SUR
The purpose of this thesis is to develop a methodology of treatment for logical consistency checking in a Geographical Information System (GIS), in order to ensure the migration of the data in the case of a technological change of system and re-structuring. This methodology is then applied to a real GIS installed in the Urban Community of Lyon (the SUR). Logical consistency is one of the quality criteria that are commonly allowed within the community of producers and users of geographical data, as well as precision or exhaustiveness for instance. After a presentation of the elements of quality and metadata in GIS, a state of the art is given concerning various works of standardization within these fields. The different standards under development (those of the CEN, the ISO and the FGDC among others) are analyzed and commented. A methodology of detection and correction of geometrical and topological errors is then detailed, within the framework of existing geographical vector databases. Three types of errors are identified, namely structural, geometrical and semantic errors. For each one of these families of errors, methods of detection based on established theories (integrity constraints, topology and computational geometry) are proposed as well ideas for the correction are detailed. This approach is then implemented within the context of the SUR databases. To complete this application, a specific mechanism was developed to deal also with the errors in tessellations, which were not taken into account by the methodology (which uses binary topological relations). Finally to ensure the consistency of the corrections, a method was set up to spread the corrections in the neighborhood of the objects under corrections. Those objects can be located inside a single layer of data as well as between different layers or different databases of the system
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Bazin, Cyril. "Tatouage de données géographiques et généralisation aux données devant préserver des contraintes." Caen, 2010. http://www.theses.fr/2010CAEN2006.

Повний текст джерела
Анотація:
Le tatouage est un procédé fondamental pour la protection de la propriété intellectuelle. Il consiste à insérer une marque dans un document numérique en le modifiant légèrement. C'est la présence de cette marque qui permet au propriétaire légitime d'un document numérique de faire preuve de l'antériorité de ses droits. L'originalité de notre travail est double. D'une part nous utilisons une approche locale pour garantir à priori que la qualité des documents est préservée lors de l'insertion de la marque. D'autre part nous proposons un schéma de tatouage générique qui s'abstrait du type de documents à tatouer. La thèse s'articule en trois parties. Nous commencons par introduire les concepts de base du tatouage de données contraintes ainsi que l'état de l'art du tatouage de données géographiques. Nous présentons ensuite notre schéma de tatouage pour les données géographiques vectorielles qui sont souvent utilisées dans les systèmes d'informations géographiques. Ce schéma aveugle permet de tatouer un document tout en en préservant certaines qualités topologiques et métriques. La marque est robuste; elle résiste entre autres aux transformations géométriques et au découpage du document. Nous proposons une implémentation efficace que nous validons par de multiples expérimentations. Dans la dernière partie de la thèse, nous généralisons ce schéma aux données devant préserver des contraintes. Le schéma générique que nous obtenons facilitera la conception de schémas de tatouage pour de nouveaux type de données. Nous donnons notamment un exemple d'application du schéma générique pour les bases de données relationnelles. Afin de montrer qu'il est possible de travailler directement sur ce schéma, nous proposons deux protocoles de détection de la marque applicables directement sur toute implémentation du schéma générique
Digital watermaking is a fundamental process for intellectual property protection. It consists in inserting a mark into a digital document by slightly modifications. The presence of this mark allows the owner of a document to prove the priority of his rights. The originality of our work is twofold. In one hand, we use a local approach to ensure a priori that the quality of constrained documents is preserved during the watermark insertion. On the other hand, we propose a generic watermarking scheme. The manuscript is divided in three parts. Firstly, we introduce the basic concepts of digital watermarking for constrainted data and the state of the art of geographical data watermarking. Secondly, we present our watermarking scheme for digital vectorial maps often used in geographic information systems. This scheme preserves some topological and metric qualities of the document. The watermark is robust, it is resilient against geometric transformations and cropping. We give an efficient implementation that is validated by many experiments. Finally, we propose a generalization of the scheme for constrainted data. This generic scheme will facilitate the design of watermarking schemes for new data type. We give a particular example of application of a generic schema for relational databases. In order to prove that it is possible to work directly on the generic scheme, we propose two detection protocols straightly applicable on any implementation of generic scheme
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Повний текст джерела
Анотація:
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Feno, Daniel Rajaonasy. "Mesures de qualité des règles d'association : normalisation et caractérisation des bases." Phd thesis, Université de la Réunion, 2007. http://tel.archives-ouvertes.fr/tel-00462506.

Повний текст джерела
Анотація:
Les règles d'association révèlent des régularités non triviales et potentiellement utiles pour l'aide a la décision, dans les bases de données. Leur validité est évaluée par le biais de mesures de qualités dont les plus utilisées sont le support et la confiance. Pour une base de données transactionnelles d'un supermarché, elles sont du type "90% des clients ayant acheté du vin et du fromage ont également acheté du pain, sachant que 75% des clients ont acheté ces articles". Dans ce travail, nous spécifions une classe de mesures de qualité normalisées en ce sens qu'elles reflètent les situations de référence comme l'incompatibilité, la dépendance négative, l'indépendance, la dépendance positive, et l'implication logique entre la prémisse et le conséquent. Nous caractérisons les mesures de qualité normalisables, donnons les formules de normalisation et montrons que la plupart de celles qui sont normalisables ont la même normalisée, à savoir la mesure de qualité Mgk introduite dans Guillaume (2000). De plus, nous caractérisons des bases pour les règles positives et les règles négatives valides au sens de Mgk, et proposons des algorithmes de génération de ces bases
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Echairi, Abdelwahad. "Effets du cuivre sur quelques indicateurs de la qualité biologique des sols viticoles : étude à différentes échelles." Dijon, 2008. http://www.theses.fr/2008DIJOS008.

Повний текст джерела
Анотація:
Des produits à base de cuivre sont utilisés depuis plus d’un siècle en viticulture pour lutter contre le mildiou (et d’autres maladies). Cet élément s’accumule dans le sol, où il peut atteindre des concentrations importantes, susceptibles d’en altérer le fonctionnement biologique. Bien que potentiellement dangereux pour la biocénose des sols, le cuivre est toujours utilisé, notamment en Agriculture Biologique. Dans ce travail, nous avons cherché à préciser les impacts du cuivre sur quelques aspects de la qualité biologique des sols viticoles en conditions « réelles », à court, moyen et long terme. Les effets à long terme ont été appréciés à l’échelle d’une région viticole (la Champagne) à travers l’étude d’échantillons de sols représentant une large gamme de teneurs en cuivre. Deux sites différents, l’un en Bourgogne, l’autre en Champagne, ont été utilisés pour aborder les effets à moyen terme (décennie). Enfin, pour étudier plus en détail les effets à court terme (1 à 4 ans), nous avons utilisé une approche expérimentale diachronique dans trois sites différents, les apports de cuivre représentant la seule source de variation. Des indicateurs biologiques reconnus (biomasse microbienne, activités de minéralisation du carbone et de l’azote, nitrification) ont été utilisés en routine. Par ailleurs, deux populations fongiques d’intérêt agro-viticole ont été étudiées : les champignons endomycorhiziens et les levures isolées par culture sur jus de raisin. Les principales caractéristiques physico-chimiques des échantillons de sols correspondants ont été déterminées, incluant les teneurs en cuivre total et en cuivre extractible à l’EDTA. La biomasse microbienne est un indicateur robuste de la qualité des sols mais, pour les doses modérées de cuivre, les variations spatio-temporelles sont supérieures aux éventuels effets des apports. Il en est de même pour les activités globales de minéralisation du carbone et de l’azote. L’activité de nitrification (oxydation de l’ammonium) s’avère peu sensible et est beaucoup moins affectée par le cuivre que par les apports antérieurs d’azote réduit ; elle n’est pas utilisable en tant que bioindicateur de contamination par le cuivre. Les populations de champignons endomycorhiziens s’avèrent potentiellement intéressantes pour évaluer les effets de pratiques culturales, dont les apports de cuivre, pour peu que les autres sources de variation soient maîtrisées. Elles peuvent donner lieu à des déterminations quantitatives (nombre de spores) et qualitatives (diversité des types morphologiques) ; des différences statistiquement significatives entre traitements ont été observées dans nos expérimentations. Toutefois, l’efficacité agronomique de ces populations n’est pas abordée par ces tests. Les populations de levures s’avèrent également intéressantes pour évaluer les effets du cuivre dans les sols viticoles. Un protocole a été mis au point, permettant l’appréciation parallèle de la diversité génotypique et phénotypique des populations. La caractérisation génotypique a fait appel d’une part à la PCR-RFLP du 18S rRNA, d’autre part au polymorphisme de la région D1-D2 de l’ADNr 26S. La caractérisation phénotypique s’est limitée à évaluer l’aptitude des souches à croître sur un milieu contenant des concentrations croissantes en cuivre. Les résultats montrent une absence de relation entre caractérisation génotypique et phénotypique. Par ailleurs, de nombreuses souches sont capables de tolérer de fortes concentrations en cuivre, même lorsqu’elles ont été isolées d’un sol sans historique d’apport de cet élément
Copper-based fungicides are used for more than a century by vine growers to fight against mildew (and other diseases). As a result, copper accumulates in soil, reaching high concentrations, with potential harmful effects on soil biocenosis. In spite of this threat, copper-based products are still in use, especially in organic farming. In this work, we tried to make clear the effects of copper on some aspects of biological quality of vineyards in “real” conditions, on the short, medium and long term. Long term effects were studied in a region (Champagne) through soil samples representing a large range of copper concentrations. Two different sites, in Burgundy and Champagne were used to study the medium-term effects (decade). Finally, to study in details the short term effects (1-4 years) we used an experimental approach, in three different locations, copper additions being the only source of variation. Biological indicators (microbial biomass, C & N mineralization, nitrification) were used for routine analysis. In addition, two fungal populations of interest for vine growing and wine making were studied: mycorrhizal-arbuscular fungi (MA) and yeasts able to grow on vine juice. The main characteristics of the soil samples were measured simultaneously, including total and EDTA-extractable copper. Microbial biomass is a reliable indicator of soil quality but, for low levels of Cu, spatio-temporal variations were higher than the effects of copper addition. The same observations were made for C and N mineralization activities. Nitrification activity (ammonium oxidation) turned out to be less affected by copper additions than by previous nitrogen additions (as reduced forms: organic N and ammonium N). Therefore, nitrification is not a reliable indicator of Cu contamination. Our results also showed that MA fungal populations are of potential interest to assess the effects of cultural practices, including copper additions, provided the other sources of variation are under control. These populations can be characterized both quantitatively (spore numbers) and qualitatively (diversity of morphological types). Significant differences between treatments were observed in our experiments. However, the efficiency of these populations (for P uptake) are not addressed by these tests. Populations of yeasts are also potentially interesting to study the effects of Cu in vineyards. We developed a protocol to assess both genotypic and phenotypic diversity of these fungal populations. Genotypic characterization was based on 18S rDNA PCR-RFLP and polymorphism of D1-D2 region of 26S rDNA. Phenotypic characterization was limited to the assessment of copper tolerance by measuring growth rate on a medium containing increasing Cu concentrations. The results showed no correlation between genotypic and phenotypic characterization. Many strains were able to grow on media containing high concentrations of copper, even when they were isolated from soil samples without previous Cu application
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Sakr, Riad. "Quality assurance in higher education institutions : contingent assessment system." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1A008/document.

Повний текст джерела
Анотація:
L’assurance qualité dans les institutions d’enseignement supérieur (IES), les facteurs qui impactent et transforment les rôles des IES, les différentes dimensions et variables intervenant dans l’évaluation de la qualité dans les IES, ainsi qu’un système d’évaluation contextuelle, sont discutés, discuté, et analysés. La structure de l’enseignement supérieur au Liban et des données sur cette structure sont aussi présentées, traitées et analysées. Pour évaluer la qualité dans les IES au Liban, un modèle/gabarit est proposé. Six domaines de dimensions de la qualité ont été considérés. Dans chaque domaine, des standards, critères, et indicateurs ont été développés et un coefficient a été affecté à chaque indicateur. Une échelle de qualité est établie. Le jugement est basé sur une évaluation quantitative par des notes; les notes sont justifiées par des observations et vérifications sur le terrain.Ce modèle/gabarit, est testé dans une université privée au Liban. Des scores dans chaque domaine, un score moyen pour chaque domaine et un score général pour l’université sont déterminés. Les résultats d’évaluation montrent des points forts et des points nécessitant des améliorations. Le modèle/gabarit proposé, est un outil pratique pour l’évaluation des IES, en particulier pour les "jeunes" IES qui cherchent à évaluer le niveau de qualité de leurs divers composants. Il peut être aussi considéré comme une étape d’évaluation nationale qui précède une accréditation par une agence internationale
The thesis discusses quality assurance in higher education institutions and the contingent quality assessment systems, and deliberates on the different factors that have impacted the higher education system and transformed the role of its institutions. The researcher then presents and discusses the different dimensions and variables that are interwoven into the quality assessment of these institutions. The Lebanese higher education structure is also discussed and analyzed. To assess quality issue in higher education institutions operating in Lebanon, a template/model is proposed. Six areas of quality dimensions are considered. Standards, criteria, and indicators are developed for each of these areas, and different coefficients are affected by indicators. A quality scale is established; the judgment is based on qualitative and quantitative evaluation justified by on-site observation and proofs. The template/model is tested in a Lebanese private university. The assessment has led to the determination of scores within each area, an average score for each area and for the university as a whole. The results of this assessment have reflected many strong and weak aspects of said university. The proposed template/model could be considered a practical assessment tool of higher education institutions, particularly for the ‘young’ institutions of higher education to evaluate the quality level of their different components. It could also be considered a national assessment step that precedes the acquisition of the international accreditation
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Philippe, Romain, and Romain Philippe. "Outils automatiques d'évaluation de la qualité des données pour le suivi en continu de la qualité des eaux usées." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37160.

Повний текст джерела
Анотація:
Aujourd’hui, la surveillance et le contrôle de la qualité des eaux usées (réseaux d’égouts, stations de récupération des ressources de l’eau–StaRRE, rivières) utilisent plusieurs capteurs installés en ligne. Une bonne stratégie de surveillance devrait être fiable et fournir une bonne qualité de données. L’utilisation des méthodes actuelles de détection de fautes a montré que des problèmes de colmatage conduisent à une perte de données comprise entre 10 et 60 %. Aider les utilisateurs à comprendre, analyser et traiter les fautes détectées (capteurs colmatés, fautes de calibration, installations et maintenances sous-optimales) permettrait de réduire le pourcentage de perte de données et d’atteindre de bonnes données sur la qualité des eaux usées. Dans ce travail de maîtrise, nous proposons deux outils modulaires complets permettant d’obtenir des informations exploitables à partir des données brutes (c'est-à-dire pour la détection des erreurs de capteurs, le contrôle ou la surveillance de processus). Ces outils ont été appliqués à des séries chronologiques des projets pilEAUte, bordEAUx et kamEAU collectés dans différents réseaux d’égouts et les StaRRE. Ces méthode sont été rendues limpides dans leur applicabilité avec la rédaction de «Standard Operating Procedures(SOP)» facilitant leur utilisation. Aussi, elles sont modulaires avec la construction de blocs de fonctions, tels qu'une boîte à outils. La première méthode est un outil univarié composé de deux étapes principales: le filtrage des données (détection des valeurs aberrantes et lissage) et la détection des fautes. La deuxième méthode est un outil utilisant l’Analyse en Composantes Principales (ACP) également composéede deux étapes: Développement du modèle ACP et détection des fautes par l’ACP. Finalement, dans les cas d’étude, le traitement des données a conduit à une perte minimale de données variant de 0.1-12%.
Aujourd’hui, la surveillance et le contrôle de la qualité des eaux usées (réseaux d’égouts, stations de récupération des ressources de l’eau–StaRRE, rivières) utilisent plusieurs capteurs installés en ligne. Une bonne stratégie de surveillance devrait être fiable et fournir une bonne qualité de données. L’utilisation des méthodes actuelles de détection de fautes a montré que des problèmes de colmatage conduisent à une perte de données comprise entre 10 et 60 %. Aider les utilisateurs à comprendre, analyser et traiter les fautes détectées (capteurs colmatés, fautes de calibration, installations et maintenances sous-optimales) permettrait de réduire le pourcentage de perte de données et d’atteindre de bonnes données sur la qualité des eaux usées. Dans ce travail de maîtrise, nous proposons deux outils modulaires complets permettant d’obtenir des informations exploitables à partir des données brutes (c'est-à-dire pour la détection des erreurs de capteurs, le contrôle ou la surveillance de processus). Ces outils ont été appliqués à des séries chronologiques des projets pilEAUte, bordEAUx et kamEAU collectés dans différents réseaux d’égouts et les StaRRE. Ces méthode sont été rendues limpides dans leur applicabilité avec la rédaction de «Standard Operating Procedures(SOP)» facilitant leur utilisation. Aussi, elles sont modulaires avec la construction de blocs de fonctions, tels qu'une boîte à outils. La première méthode est un outil univarié composé de deux étapes principales: le filtrage des données (détection des valeurs aberrantes et lissage) et la détection des fautes. La deuxième méthode est un outil utilisant l’Analyse en Composantes Principales (ACP) également composéede deux étapes: Développement du modèle ACP et détection des fautes par l’ACP. Finalement, dans les cas d’étude, le traitement des données a conduit à une perte minimale de données variant de 0.1-12%.
Nowadays, in the wastewater field (sewers, water resource recovery facilities -WRRFs, rivers), the monitoring and control of wastewater quality is performed with several on-line sensors. However, a good monitoring strategy should be reliable and provide good data quality. The current fault detection methods have shown that problems such as fouling lead to 10-60 % of the data being discarded. However, helping users in understanding, analysing and processing detected faults (sensors clogging, faulty calibration, suboptimal installation and maintenance) will allow reducing the percentage of data loss and reaching good data on wastewater quality. In this Master thesis, we propose two full workflows allowing the collection of raw data and their transformation into actionable information (i.e. for sensor fault detection, control or process monitoring).The two full modular frameworks were applied to time series data coming from thepilEAUte, bordEAUx and kamEAU projects collected in sewers and WRRFs. These methods have been made more easily applicable by writing Standard Operation Procedures (SOPs) on the use of these methods. In addition, the Matlab scripts are written in a modular way by building different function blocks that are compiled in a toolbox. The first method is a univariate tool composed of two main steps: Data filtering (outlier detection and smoothing) and fault detection. The second method is a multivariate tool using Principal Component Analysis, also composed of two steps: (i) the development of the PCA model and (ii) the fault detection by the PCA. Finally, for the three aforementioned projects, data treatment has led to only 0.1-12% of the data being discarded.
Nowadays, in the wastewater field (sewers, water resource recovery facilities -WRRFs, rivers), the monitoring and control of wastewater quality is performed with several on-line sensors. However, a good monitoring strategy should be reliable and provide good data quality. The current fault detection methods have shown that problems such as fouling lead to 10-60 % of the data being discarded. However, helping users in understanding, analysing and processing detected faults (sensors clogging, faulty calibration, suboptimal installation and maintenance) will allow reducing the percentage of data loss and reaching good data on wastewater quality. In this Master thesis, we propose two full workflows allowing the collection of raw data and their transformation into actionable information (i.e. for sensor fault detection, control or process monitoring).The two full modular frameworks were applied to time series data coming from thepilEAUte, bordEAUx and kamEAU projects collected in sewers and WRRFs. These methods have been made more easily applicable by writing Standard Operation Procedures (SOPs) on the use of these methods. In addition, the Matlab scripts are written in a modular way by building different function blocks that are compiled in a toolbox. The first method is a univariate tool composed of two main steps: Data filtering (outlier detection and smoothing) and fault detection. The second method is a multivariate tool using Principal Component Analysis, also composed of two steps: (i) the development of the PCA model and (ii) the fault detection by the PCA. Finally, for the three aforementioned projects, data treatment has led to only 0.1-12% of the data being discarded.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Plassart, Pierre. "Pertinence des indicateurs microbiens dans l'évaluation de l'état des sols agricoles." Rouen, 2010. http://www.theses.fr/2010ROUES048.

Повний текст джерела
Анотація:
La plupart des sols du monde sont aujourd’hui modifiés par les activités humaines. Ainsi, pour de nombreux sols agricoles, les pratiques culturales intensives et l’apport chronique d’intrants chimiques ont conduit à une diminution de la fertilité de ces sols. Pourtant, alors même que ces sols sont en danger, il n’existe que peu d’outils d’évaluation pertinents de leur état. La composante biologique a longtemps été négligée, or le sol héberge une très forte diversité d’organismes impliquée dans les cycles biogéochimique dont les microorganismes susceptibles alors de constituer des bioindicateurs potentiels de l’état du sol. L'objectif de ce travail consiste donc à identifer des variables descriptives de la diversité bactérienne, sensibles à l’état du sol. La structure des communautés bactériennes (abondance, diversité génétique et fonctionnelle) a été appréhendée dans son ensemble mais également au travers de l’analyse des populations de Pseudomonas, genre bactérien largement représenté dans les sols et particulièrement sensible à ses perturbations. L’approche expérimentale, de la parcelle au microcosme, a consisté en l’évaluation comparée de l’effet (1) d’un apport de cuivre (dose agronomique x100) (2), de perturbations naturelles (spatiale, climatique), et (3) de perturbations anthropiques (pratiques culturales) sur les communautés bactériennes. La première partie de ce travail a été réalisée in situ sur sols de Prairie et de Grande culture afin de définir les bornes naturelles de la variation spatiale et temporelle de différents descripteurs bactériens de sols limoneux caractéristiques de Haute Normandie. Par ailleurs, cette partie a également permis d’appréhender les sensibilités relatives des différentes variables descriptives mesurées et de valider en conséquence les approches méthodologiques mises en oeuvre. Ainsi les variables mesurées peuvent être classées en deux catégories : les variables dont la mesure repose sur la culture des microorganismes reflèteraient les perturbations récentes du sol tandis que les variables basées sur une approche moléculaire reflèteraient l’historique cultural des parcelles. La seconde partie de ce travail a permis d’étudier en microcosmes l’impact d’une contamination métallique par le cuivre sur les descripteurs étudiés dans la première partie. Les résultats obtenus montrent que les variations de la structure des communautés bactériennes causées par une contamination cuprique ponctuelle, comparées à celles liées à la saison ou aux pratiques culturales, sont mineures. Parallèlement une analyse comparative des données obtenues en cosmes tamisés et non tamisés révèle que l'état du sol peut influencer la réponse des communautés bactériennes à une contamination métallique ; en effet la perturbation physique du sol par le tamisage a induit une réponse transitoire des communautés à la contamination métallique. Ce travail a permis (1) la constitution d’un référentiel de données microbiologiques de sols agricoles limoneux, intégrant les fluctuations spatiales et temporelles des variables mesurées, (2) de déterminer la sensibilité de variables descriptives aux effets naturels et anthropiques et d’identifier les limites et complémentarités des approches cellulaires et moléculaires, (3) de hierarchiser des facteurs déterminant la structure génétique et fonctionnelle des communautés bactériennes, (4) de valider la pertinence de l’utilisation des bactéries du genre Pseudomonas dans l’évaluation de l’impact du cuivre sur les sols
Most soils worlwide undergo modifications caused by human activities. For numerous agricultural soils, the intensive practices, as well as the chronical spreading of chemical inputs, lead to a decrease in these soils fertilkity. Yet, while these soils are in danger, only a few relevant soil status evaluation tools exist. The biological component has been neglected for a long time, though soil accomodates a high diversity level of organisms involved in biogeochemical cycles. Among these organisms, microorganisms are likely to be potential bioindicators of soil status. Thus, the aim of this work consists in identifying biological variables describing bacterial diversity that would be sensitive to soil status. Bacterial community structure (abundance, genetic and functionnal diversity) was assessed as a whole, but also through the analysis of Pseudomonas populations, a bacterial genus widely found in soils and sensitive to environmental disturbances. The experimental approach, from the field plot level to the microcosm level, consisted in the confrontation of the impacts of (1) soil copper contamination (agronomical dose x100), (2) natural disturbances (spatial and climatic), and (3) human caused disturbances (agricultural practices) on bacterial communities. The first part of this work was performed in situ on typical silty Haute-Normandie soils managed as grasslands and cultures, in order to define the natural spatial and temporal variation limits of different bacterial descriptors. Besides, this first part enabled the understanding each variable's sensitivity, and validated the different methodological approaches. Thus, the measured variables can be organized in two categories: those which rely on microorganisms cultivation would reflect recent soil disturbances, while those based on molecular approaches would reflect the agricultural history of field plots. In the second part, the impact of a copper contamination on the previously described variables was studied in microcosms. Results showed that variations in the bacterial community structure caused by a single copper contamination were minor, when compared with variations caused by season or agricultural practices. In the same time, a comparative analysis was performed between sieved soil and intact soil microcosms. This revealed that soil status can influence bacterial communities response to a copper contamination; indeed, soil physical disturbance (sieving) induced a transient response of bacterial communities to the copper contamination. This work lead to (1) building, for an agricultural silty soil, a microbiological reference system, which includes spatial and temporal fluctuations of the measured variables, (2) determining for each variable its sensitivity to natural and human impacts, and identifying the limits and complementarities of the cellular and molecular approaches, (3) organizing into a herarchy factors determining the genetic and functionnal sructure of bacterial communities, (4) validating the relevance of using the Pseudomonas genus in the evaluation of the impact of copper on soils
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Gutierrez, Rodriguez Claudia. "Qualité des données capteurs pour les systèmes de surveillance de phénomènes environnementaux." Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0032/these.pdf.

Повний текст джерела
Анотація:
Les applications émergentes dans le domaine géographique, exploitent de plus en plus d'informations géolocalisées provenant de capteurs, notamment pour la gestion de risques urbains ou environnementaux, etc. L'utilisation de capteurs au sein du domaine de la surveillance, notamment environnementale (i. E. Inondations, avalanches, volcans…), permet une interprétation plus simple du monde réel. Cependant, les grandes quantités de données issues de ces capteurs, à fréquences et positions variables dans le temps, acquises dans des environnements hostiles avec une capacité d'énergie et de communication limitée, rendent les données plus imprécises et incertaines. Le but de notre travail est donc de relever le challenge de la qualité des données issues de capteurs en temps réel, afin d'aider les utilisateurs lors de la prise de décision en situations critiques. Ainsi, nous proposons une méthodologie pour la définition, l'évaluation et la communication de la qualité des données issues de capteurs. Cette méthodologie s'inspire de méthodologies existantes traitant de la qualité de données dans différents domaines et est structurée en trois phases (la définition, l'évaluation et la communication). Cette méthodologie, à la différence des méthodologies existantes dans le domaine des systèmes d'information, a nécessité la spécification de caractéristiques des données issues de capteurs liées à la qualité des données. L'évaluation de la qualité, au sein de la méthodologie prend en compte les facteurs du contexte d'acquisition et du traitement qu'ont un impact sur la qualité des données, ainsi que la gestion des métadonnées qualité et l'évaluation de la qualité multicritères en temps réel. La méthodologie proposée est supportée par un prototype de visualisation appelé MoSDaQ qui permet de visualiser via le web les données issues des observations environnementales, conjointement aux informations liées à la qualité des données exploitées en temps réel
Nowadays, emerging applications in the geographic domain increasingly explore geolocalized information provided by sensors, specially for crisis management, real-time vehicle management, urban or environmental risks management, etc. More particularly, the use of sensors in the surveillance domain, specially environmental surveillance (i. E. , floodings, avalanches, volcanoes. . . ), allow a simpler interpretation of the real world. In the meanwhile, the great volume of data coming from these sensors, at variable frequency and positions, acquired in hostile environments with limited battery and communication power turn the data imprecise and uncertain. We have thus a problem regarding the quality of the data provided by these sensors. This research work proposed in this thesis raise the challenge of real-time sensor data quality, in order to help users in the decision making during critical situations. This being, we propose a methodology for the definition, evaluation and communication of sensor data quality. This methodology is inspired by existent methodologies dealing with data quality in different domains and is structured in three phases (the definition, the evaluation and the communication). This methodology, differently from existent methodologies in the information systems domain, needed the specification of sensor data characteristics linked to data quality. The evaluation of the quality, in the core of the methodology, takes into account the acquisition context factors and treatment that can impact the data quality, as well as the metadata management and the evaluation of multi-criterion quality in real-time. The proposed methodology is supported by a visualization prototype called MoSDaQ (Monitoring Sensor Data Quality) that allows us to visualize via web the data provided by environmental observations, together with information related to the data quality in real-time
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії