Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: A-Qualité.

Dissertationen zum Thema „A-Qualité“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "A-Qualité" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Chemingui, Makram. „Conceptualisation et validation d'une échelle de mesure de la qualité des travaux d'audit externe et interne : application selon la démarche du paradigme de Churchill“. Besançon, 2004. http://www.theses.fr/2004BESA0001.

Der volle Inhalt der Quelle
Annotation:
L'approche traditionnelle de la qualité de l'audit débouche sur une incapacité à évaluer la pertinence des travaux d'audit menés. Nous estimons que le contrôle de la qualité de l'audit doit désormais se situer au niveau de la mise en œuvre. Il s'agit désormais de mesurer l'adaptabilité des travaux d'audit réalisés aux zones de risque de l'entreprise. L'objectif principal de cette thèse est de développer des échelles de mesure des travaux d'audit interne et externe permettant l'expérimentation de cette nouvelle approche d'évaluation. En se limitant à une vision " contractualiste " de la firme, la conception et la validation des échelles de mesure sont réalisées dans le cadre d'un protocole expérimental selon le paradigme de Churchill. Articulant des phases quantitatives basées sur deux questionnaires de recherche (141 répondants) et des phases qualitatives (entretiens avec les experts de l'audit), cette démarche a démontré la fiabilité et la validité de la majorité des échelles obtenues
The traditional approach of audit quality is today unable to allow a real evaluation of the adequacy of the audit tasks realized. We believe that the control of audit quality must now repose on the adequacy of the audit programs to the risks facing the firm. The main aim of this thesis is to develop scales, for measuring internal and external audit tasks, which will enable to experiment this new evaluation approach. By considering only the "contractualist" vision of the firm, the design and validation of measurement scales are realised within the framework of an experimental protocol according to Churchill's paradigm. This approach has confirmed the reliability and validity of the majority of the scales obtained, by linking up two distinctive phases: quantitative phases based on two research questionnaires (141 respondents) and qualitative phases based on interviews with audit experts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Davot, Tom. „A la recherche de l’échafaudage parfait : efficace, de qualité et garanti“. Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS030.

Der volle Inhalt der Quelle
Annotation:
Le séquençage est un processus en biologie qui permet de déterminer l'ordre des nucléotides au sein de la molécule d'ADN. Le séquençage produit un ensemble de fragments, appelés lectures, dans lesquels l'information génétique est connue. Seulement, la séquence génomique n'est connue que de façon parcellaire, pour pouvoir faire son analyse, il convient alors de la reconstituer à l'aide d'un certain nombre de traitements informatiques. Dans cette thèse, nous avons étudié deux problèmes mathématiques issus de ce séquençage : l'échafaudage et la linéarisation.L'échafaudage est un processus qui intervient après l'assemblage des lectures en contigs. Il consiste en la recherche de chemins et de cycles dans un graphe particulier appelé graphe d'échafaudage. Ces chemins et cycles représentent les chromosomes linéaires et circulaires de l'organisme dont l'ADN a été séquencée. La linéarisation est un problème annexe à l'échafaudage : quand on prend en compte le fait que les contigs puissent apparaitre plusieurs fois dans la séquence génomique, des ambiguïtés surviennent dans le calcul d'une solution. Celles-ci, si elles ne sont pas traitées, peuvent entrainer la production d'une séquence chimérique lors de l'échafaudage. Pour résoudre ce problème, il convient alors de dégrader de façon parcimonieuse une solution calculée par l'échafaudage. Dans tous les cas, ces deux problèmes peuvent être modélisés comme des problèmes d'optimisation dans un graphe.Dans ce document, nous ferons l'étude de ces deux problèmes en se concentrant sur trois axes. Le premier axe consiste à classifier ces problèmes au sens de la complexité. Le deuxième axe porte sur le développement d'algorithmes, exacts ou approchés, pour résoudre ces problèmes. Enfin, le dernier axe consiste à implémenter et tester ces algorithmes pour observer leurs comportements sur des instances réelles
Sequencing is a process in biology that determines the order of nucleotides in the DNA. It produces a set of fragments, called reads, in which the genetic information is known. Unfortunatly, the genomic sequence is decomposed in small pieces. In order to analyse it, it is necessary to reconstruct it using a number of computer processes. In this thesis, we studied two mathematical problems arising from this sequencing: the scaffolding and the linearization.The scaffolding is a process that takes place after the reads assembly into larger subsequences called contigs. It consists in the search of paths and cycles in a particular graph called scaffold graph. These paths and cycles represent the linear and circular chromosomes of the organism whose DNA has been sequenced. The linearization is a problem related to the scaffolding. When we take into account that contigs may appear several times in the genomic sequence, some ambiguities can arise. If this ambiguities are not deleted, then a chimeric sequence may be produced by the scaffolding. To solve this problem, a solution computed by the scaffolding should be wisely deteriorated. In any case, both problems can be modelized as optimization problems in a graph.In this document, we study both problems focusing on three aspects. The first aspect consists in the study of the complexity of these problems. The second aspect consists in the development of algorithms, exact or approximate, to solve these problems. Finally, the last aspect consists in implementing and testing these algorithms to look at their behaviors on real instances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Bousquet, Eric. „Les rouges à lèvres : composition, fabrication, contrôles“. Toulouse 3, 1994. http://www.theses.fr/1994TOU32083.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Rached, Estelle. „Le devenir humain dans et pour l’incertitude : la qualité en éducation. Cas des établissements scolaires du second degré au Liban“. Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0091.

Der volle Inhalt der Quelle
Annotation:
La présente thèse questionne la qualité en éducation en abordant le concept de « l’a-qualité », par analogie au modèle de « l’a-synthèse » (Perez, 2008). Le préfixe « a » est suspensif, invitant à suspendre la qualité éducative du point de vue normatif pour l’interroger au niveau de son construit théorique. L’a-qualité est abordée dans ses deux facettes de micro-attentions et de micro-violences dans le pays du Cèdre, en proie à de violentes crises. L’objectif de notre thèse vise à lever le voile sur la place de l’humain qui interagit avec autrui et avec l’environnement, constituant l’angle mort de la qualité et le seul rempart contre la mouvance sociétale. La question de recherche suivante guide l’étude : Quelle a-qualité humaniste peut-elle définir l’angle mort de la qualité d’un établissement scolaire afin de répondre à l’incertitude du contexte libanais ? Nous avançons l’hypothèse que l’a-qualité humaniste se centre sur la formation holistique des acteurs éducatifs, conjugue leurs capacités distinctives et développe une institution éco-émergente lui permettant de relever les défis du contexte incertain. Notre thèse s’inscrit dans une approche mixte, selon le design séquentiel explicatif de Creswell (2014), dans une complémentarité des données quantitatives et qualitatives. Les résultats dévoilent que l’a-qualité est davantage perçue dans le contexte incertain par l’absence de micro-violences que par la présence de micro-attentions. Face aux mutations sociétales, les acteurs éducatifs semblent plus sensibles à la micro-violence qu’à la micro-attention, les pratiques dommageables pour les humains gardant des traces souvent indélébiles. Dans ce sens, l’école en devenir s’inscrit dans son contexte, en devenant éco-émergente, apte à transformer les obstacles en opportunités pour apprendre et se développer. Elle forme les acteurs éducatifs aux compétences de vie, soucieuse de leur bien-être, au sein d’une altérité bienveillante, valorisant la singularité de chacun, dans une intelligence collective (De Ketele, 2020a) au service d’un monde commun et non uniforme (Mutuale, 2020)
This thesis explores education quality by introducing the concept of "a-quality," akin to the model of "a-synthesis" (Perez, 2008). The prefix "a" is suspensive, inviting us to explore educational quality by examining it at the level of its theoretical constructs. A-quality is approached in its dual aspects of micro-attention and micro-violence in Lebanon, beset by severe crises. Our thesis aims to unveil the role of the human who interacts with others and with the environment, an overlooked aspect of quality and the sole defence against societal flux. The research question that guides this study is: What humanistic a-quality aspects can define the blind spot of school quality to address the uncertainty of the Lebanese context? We hypothesize that humanistic a-quality focuses on the holistic development of educational actors, harnesses their distinctive capacities, and cultivates an eco-emergent institution to meet the challenges in an uncertain context. Our thesis employs a mixed-methods approach, following Creswell's (2014) sequential explanatory design, combining quantitative and qualitative data. The findings reveal that a-quality is perceived more in uncertain contexts by the absence of micro-violence rather than by the presence of micro-attentions. Faced with societal shifts, educational actors appear more attuned to micro-violence than micro-attention, as harmful practices leave often indelible marks on humans. Therefore, the evolving school embeds itself in its context, becoming eco-emergent, and capable of transforming obstacles into learning opportunities and growth. It empowers educational actors with life skills, mindful of their well-being within a benevolent otherness, valuing everyone’s uniqueness within a collective intelligence (De Ketele, 2020a) serving the common good and a non-uniform world (Mutuale, 2020)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Wolf, Rémi. „Quantification de la qualité d'un geste chirurgical à partir de connaissances a priori“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00965163.

Der volle Inhalt der Quelle
Annotation:
Le développement de la chirurgie laparoscopique entraîne de nouveaux défis pour le chirurgien, sa perception visuelle et tactile du site opératoire étant modifiée par rapport à son expérience antérieure. De nombreux dispositifs ont été développés autour de la procédure chirurgicale afin d'aider le chirurgien à réaliser le geste avec la meilleure qualité possible. Ces dispositifs visent à permettre au chirurgien de mieux percevoir le contexte dans lequel il intervient, à planifier de façon optimale la stratégie opératoire et à l'assister lors de la réalisation de son geste. La conception d'un système d'analyse de la procédure chirurgicale, permettant d'identifier des situations à risque et d'améliorer la qualité du geste, est un enjeu majeur du domaine des Gestes Médico-Chirurgicaux Assistés par Ordinateur. L'évaluation de la qualité du geste explore plusieurs composantes de sa réalisation : les habiletés techniques du chirurgien, ainsi que ses connaissances théoriques et sa capacité de jugement. L'objectif de cette thèse était de développer une méthode d'évaluation de la qualité technique des gestes du chirurgien à partir de connaissances à priori, qui soit adaptée aux contraintes spécifiques du bloc opératoire sans modifier l'environnement du chirurgien. Cette évaluation s'appuie sur la définition de métriques prédictives de la qualité du geste chirurgical, dérivées des trajectoires des instruments au cours de la procédure. La première étape de ce travail a donc consisté en la mise au point d'une méthode de suivi de la position des instruments laparoscopiques dans la cavité abdominale au cours de la chirurgie, à partir des images endoscopiques et sans ajout de marqueurs. Ce suivi combine des modèles géométriques de la caméra, de l'instrument et de son orientation, ainsi que des modèles statistiques décrivant les évolutions de cette dernière. Cette méthode permet le suivi de plusieurs instruments de laparoscopie dans des conditions de banc d'entraînement, en temps différé pour le moment. La seconde étape a consisté à extraire des trajectoires des paramètres prédictifs de la qualité du geste chirurgical, à partir de régressions aux moindres carrés partiels et de classifieurs k-means. Plusieurs nouvelles métriques ont été identifiées, se rapportant à la coordination des mains du chirurgien ainsi qu'à l'optimisation de son espace de travail. Ce dispositif est destiné à s'intégrer dans un système plus large, permettant d'apporter au chirurgien, en temps réel, des informations contextualisées concernant son geste, en fusionnant par exemple les données issues de la trajectoire à des données multi-modales d'imagerie per-opératoire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Wolf, Remi. „Quantification de la qualité d'un geste chirurgical à partir de connaissances a priori“. Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENS042/document.

Der volle Inhalt der Quelle
Annotation:
Le développement de la chirurgie laparoscopique entraîne de nouveaux défis pour le chirurgien, sa perception visuelle et tactile du site opératoire étant modifiée par rapport à son expérience antérieure. De nombreux dispositifs ont été développés autour de la procédure chirurgicale afin d'aider le chirurgien à réaliser le geste avec la meilleure qualité possible. Ces dispositifs visent à permettre au chirurgien de mieux percevoir le contexte dans lequel il intervient, à planifier de façon optimale la stratégie opératoire et à l'assister lors de la réalisation de son geste. La conception d'un système d'analyse de la procédure chirurgicale, permettant d'identifier des situations à risque et d'améliorer la qualité du geste, est un enjeu majeur du domaine des Gestes Médico-Chirurgicaux Assistés par Ordinateur. L'évaluation de la qualité du geste explore plusieurs composantes de sa réalisation : les habiletés techniques du chirurgien, ainsi que ses connaissances théoriques et sa capacité de jugement. L'objectif de cette thèse était de développer une méthode d'évaluation de la qualité technique des gestes du chirurgien à partir de connaissances a priori, qui soit adaptée aux contraintes spécifiques du bloc opératoire sans modifier l'environnement du chirurgien. Cette évaluation s'appuie sur la définition de métriques prédictives de la qualité du geste chirurgical, dérivées des trajectoires des instruments au cours de la procédure. La première étape de ce travail a donc consisté en la mise au point d'une méthode de suivi de la position des instruments laparoscopiques dans la cavité abdominale au cours de la chirurgie, à partir des images endoscopiques et sans ajout de marqueurs. Ce suivi combine des modèles géométriques de la caméra, de l'instrument et de son orientation, ainsi que des modèles statistiques décrivant les évolutions de cette dernière. Cette méthode permet le suivi de plusieurs instruments de laparoscopie dans des conditions de banc d'entraînement, en temps différé pour le moment. La seconde étape a consisté à extraire des trajectoires des paramètres prédictifs de la qualité du geste chirurgical, à partir de régressions aux moindres carrés partiels et de classifieurs k-means. Plusieurs nouvelles métriques ont été identifiées, se rapportant à la coordination des mains du chirurgien ainsi qu'à l'optimisation de son espace de travail. Ce dispositif est destiné à s'intégrer dans un système plus large, permettant d'apporter au chirurgien, en temps réel, des informations contextualisées concernant son geste, en fusionnant par exemple les données issues de la trajectoire à des données multi-modales d'imagerie per-opératoire
The development of laparoscopic surgery has led to new challenges for surgeons, their visual and tactile perception of the operating field having been modified compared to their prior experience. Numerous devices have been designed around the surgical process in order to help the surgeon to perform the best possible intervention. These devices aim at enhancing the surgeon's perception of the operating context, optimally planning the surgical strategy, and assisting him/her during the intervention. The design of a system dedicated to the analysis of the surgical process, enabling the identification of risky situations and improving the quality of the surgery, is a major issue in the field of Computer Assisted Medical Interventions. The assessment of quality in surgery covers different aspects: the technical skills of the surgeon, as well as his/her theoretical knowledge and decision-making abilities. The objective of this thesis was to develop a technical skills assessment device for laparoscopic surgery, using a priori knowledge, suitable for the operating room's specific constraints without modifying the surgeon's environment. This assessment is based on the definition of predictive metrics for the quality of the surgery, derived from the instruments' trajectories during the procedure. The first step of this work consisted in the implementation of an instrument tracking method, based on endoscopic images without addition of any markers, in order to retrieve the 3D position of the instrument's tip inside the abdominal cavity during the surgical procedure. This tracking combines geometric models of the camera, the instrument and its orientation, with statistical models describing the evolutions of the latter. This method allows for simultaneous off-line tracking of multiple instruments within a training bench environment. The second step consisted in the extraction, from these trajectories, of predictive metrics for the assessment of the technical skills of the surgeon, using partial least squares regression and k-means classifiers. Several new metrics were identified, relating to the coordination of the surgeon's hands and the optimization of his/her workspace. This device is intended to be integrated in a more general system, in order to provide the surgeon with context-aware information regarding the surgical process, for example by merging data obtained from the trajectory with per-operative multi-modal image data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Chatelain, Pierre. „Quality-driven control of a robotized ultrasound probe“. Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S092/document.

Der volle Inhalt der Quelle
Annotation:
La manipulation robotique d'une sonde échographique a été un important sujet de recherche depuis plusieurs années. Plus particulièrement, des méthodes d'asservissement visuel guidé par échographie ont été développées pour accomplir différentes tâches, telles que la compensation de mouvement, le maintien de la visibilité d'une structure pendant la téléopération, ou le suivi d'un instrument chirurgical. Cependant, en raison de la nature des images échographiques, garantir une bonne qualité d'image durant l'acquisition est un problème difficile, qui a jusqu'ici été très peu abordé. Cette thèse traite du contrôle de la qualité des images échographiques acquises par une sonde robotisée. La qualité du signal acoustique au sein de l'image est représentée par une carte de confiance, qui est ensuite utilisée comme signal d'entrée d'une loi de commande permettant d'optimiser le positionnement de la sonde échographique. Une commande hybride est également proposée pour optimiser la fenêtre acoustique pour une cible anatomique qui est détectée dans l'image. L'approche proposée est illustrée dans le cas d'un scénario de télé-échographie, où le contrôle de la sonde est partagé entre la machine et le téléopérateur
The robotic guidance of an ultrasound probe has been extensively studied as a way to assist sonographers in performing an exam. In particular, ultrasound-based visual servoing methods have been developed to fulfill various tasks, such as compensating for physiological motion, maintaining the visibility of an anatomic target during teleoperation, or tracking a surgical instrument. However, due to the specific nature of ultrasound images, guaranteeing a good image quality during the procedure remains an unaddressed challenge. This thesis deals with the control of ultrasound image quality for a robot-held ultrasound probe. The ultrasound signal quality within the image is represented by a confidence map, which is used to design a servo control law for optimizing the placement of the ultrasound probe. A control fusion is also proposed to optimize the acoustic window for a specific anatomical target which is tracked in the ultrasound images. The method is illustrated in a teleoperation scenario, where the control is shared between the automatic controller and a human operator
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Tisné, Séverine. „Qualité de vie d'une population de sujets âgés vivant à domicile dans l'année suivant un séjour en service de réhabilitation gériatrique“. Bordeaux 2, 1997. http://www.theses.fr/1997BOR2M046.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Boujija, Abdelaziz. „Contribution a l'analyse de l'influence des paramètres morphologiques des matériaux fibreux sur la qualité des produits en filature“. Mulhouse, 1993. http://www.theses.fr/1993MULH0269.

Der volle Inhalt der Quelle
Annotation:
La longueur des fibres constitue le parametre morphologique le plus important en filature classique. Elle conditionne la conception et les reglages des machines ainsi que la structure des processus en filature cardee et peignee. La distribution de longueur des fibres du coton est caracterisee par deux parametres: l et cv#l. Elle peut etre ajustee par une loi gamma ou d'erlang dont les rangs n et r varient entre 5 et 7 pour les fibres cardees et entre 11 et 15 pour les fibres peignees. La structure et les proprietes des textiles lineaires (regularite de masse lineique, pilosite et caracteristiques mecaniques) dependent de l et de cv#l. La qualite des produits est d'autant meilleure que l est elevee et que cv#l est faible. La partie experimentale, faisant appel aux fonctions d'autocorrelation, aux densites spectrales de fourier et aux fonctions variance-longueur a permis de mettre en evidence l'influence des parametres morphologiques des fibres (notamment la longueur) sur la qualite des textiles lineaires. Toutefois, le reglage des machines joue un role tres important
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Panjeta, Alvin. „Expérimenter la qualité à l'université : une approche pragmatiste des processus de médiation instrumentée“. Electronic Thesis or Diss., Paris 1, 2019. http://faraway.parisnanterre.fr/login?url=http://www.harmatheque.com/ebook/experimenter-la-qualite-a-l-universite-de-la-conformite-aux-normes-techniques-au-potentiel-des-surprises-bureaucratiques-74903.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se propose d’explorer les transformations managériales récentes des organisations publiques à travers l’étude de la mise en place d’une démarche qualité au sein des services administratifs d’une université. Adoptant une approche résolument processuelle des organisations, ainsi qu’une approche narrative et sémiotique de l’instrumentation de gestion, la thèse fait d’une part le récit des vertiges et surprises de la mise en place d’une ingénierie représentationnelle des systèmes complexes, et d’autre part, s’attache à saisir les moments et mouvements qui ont marqué l’évolution constante de la démarche qualité. La mobilisation des concepts d’enquête, de valuation, de sémiose et d’expérimentalisme, issus des travaux de philosophes pragmatistes, éclaire ainsi d’un nouveau regard le changement organisationnel. En effet, si l’instrumentation de gestion charrie le désir de contrôle du réel et de réduction de l’incertitude, l’étude de cas permet de voir qu’elle n’échappe pas pour autant aux surprises organisationnelles. Cette plasticité et cette plurivalence de l’instrumentation mettent en lumière sa valeur heuristique et se présentent comme un gisement de potentialités pour réinventer l’agir collectif. L’approche pragmatiste permet aussi de mettre en exergue la dimension transitoire et incertaine des motifs organisationnels, soumis à des glissements sémiotiques permanents, procédant à une dilution des fins en moyens d’autres fins. Cette approche nécessite d’accorder une place centrale à l’indétermination dans la compréhension des processus organisationnels, et d’appréhender la performance comme une expérience
Based on a case study relating to the implementation of a quality program within a French university administrative activities, the dissertation explores the recent managerialization of the public sector. Following a clearly processual approach to organizations as well as a narrative and semiotic approach to instrumentation, the dissertation, on the one hand, relates the dazzles and surprises of the implementation of a representational engineering of complex systems, and on the other, attempts to capture the moments and movements that characterize the constant evolution of the quality program.Analyzing the managerial situations through the pragmatist concepts such as inquiry, valuation, semiosis and experimentalism sheds new light on organizational change. Indeed, while management instrumentation aims at bringing reality under control and reducing uncertainty, the case study shows that it nonetheless cannot but give rise to organizational surprises. The instrumental plasticity and plurivalence thus reveal their heuristic value, and their potential for reimagining the joint action. The pragmatist philosophy helps make it clear that organizational patterns are fundamentally transitional and uncertain, constantly subject to semiotic drifting, transforming the primary goals into means for new goals. This approach goes together with making the indeterminacy a central part of understanding the organizational processes, and with considering performance issues as experience ones
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Guo, Fangfang. „Development of a model for controlling indoor air quality“. Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAH011/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail a consisté à analyser et de simuler à l’aide du modèle INCA-Indoor la qualité de l’air intérieur, et de développer une nouvelle méthodologie pour étudier les contributions des différents processus aux concentrations de polluants. Cette nouvelle méthodologie se base sur un nouveau programme de sensibilité INCA-Indoor-D, permet d’identifier rapidement les paramètres les plus sensibles qui peuvent influencer la qualité de l’air intérieur. Le modèle INCA-Indoor a été validé expérimentalement en utilisant les données mesurées lors de la campagne MERMAID (2014-2015). L’application du programme de sensibilité INCA-Indoor-D est pour analyser des sensibilité des concentrations de OH par rapport aux divers paramètres. Une classification de l’importance de ces paramètres en fonction de la sensibilité a ainsi été effectuée. Ce travail de thèse offre une nouvelle analyse de la pollution de l’air ainsi que de nouvelles perspectives d’études possibles dans un bâtiment basse consommation
This study consisted in the study of indoor air quality with INCA-Indoor model, and especially the development of a fast methodology to identify the most sensitive parameters influencing indoor air quality. The methodology is based on a sensitivity program INCA-Indoor-D, which was built to identify the most important parameters affecting pollutant concentrations. With measurement data from MERMAID (2014-2015), it is intended to continue to evaluate the INCA-Indoor model, which was used to analyze the indoor air quality of a low energy building. The first application of the sensitivity program INCA-Indoor-D is performed to develop a comprehensive sensitivity analysis of indoor [OH] with respect to diverse parameters. Sensitivity has been settled with a classification of the parameters. The results in this study provide useful information about roles of different processes controlling indoor air quality and the effects of different parameters on indoor pollutant concentrations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Berti-Équille, Laure. „La qualité des données et leur recommandation : modèle conceptuel, formalisation et application a la veille technologique“. Toulon, 1999. http://www.theses.fr/1999TOUL0008.

Der volle Inhalt der Quelle
Annotation:
Les activités liées à la veille technologique sont traditionnellement centrées sur la notion de validation de l'information par expertise. Jusqu'à présent aucun système d'information n'assure (ni n'assiste) l'analyse critique et qualitative de l'information qu'il stocke. La plupart des systèmes d'information actuels stockent des données (I) dont la source est généralement unique, non connue ou non identifiée/authentifiée et (2) dont k qualité est inégale et/ou ignorée. Après avoir analysé le vaste panorama des travaux de recherche dont les problématiques présentent des analogies avec la problématique de la veille, l'objectif était de proposer un environnement permettant la gestion des sources textuelles, des données (souvent contradictoires) extraites de leur contenu et des méta-données de qualité. La contribution de cette thèse est d'apporter une perspective multi-source à la qualité des données en définissant les concepts de base de données multi-sources (BDMS), de qualité de données multi-sources (QDMS) et de recommandation multi-critère. Mon travail s'est axé sur : la proposition d'une méthodologie qui guide pas-à-pas la mise en oeuvre de la qualité des données dans un contexte d'informations mulli-sources ; la modélisation conceptuelle d'une BDMS permettant la gestion de sources, de données multi-sources et t de leur rnéta-données de qualité et proposant des mécanismes de recommandation des données selon leur qualité relative, la formalisation du modèle de données QDMS qui décrit les données multi-sources, leurs méta-données de qualité et l'ensemble des opérations pour les manipuler, le développement du prototype sQuaL pour valider l'ensemble de mes propositions. Les perspectives sont de développer un système d'information spécifique à la veille pour qu'il gère des données multi-sources, prenne en compte la qualité de ses propres données et propose à l'interrogation une recommandation des données basée sur leur qualité relative. A plus long terme, il s'agit de développer le concept de système d'information "introspectif", c'est-à-dire actif et réactif quant à la qualité de ses propres données
Technological Watch activities are focused on information qualification and validation by human expertise. As a matter of facf, none of these systems can provide (nor assist) a critical and qualitative analysis of data they store and manage- Most of information systems store data (1) whose source is usually unique, not known or not identified/authenticated (2) whose quality is unequal and/or ignored. In practice, several data may describe the same entity in the real world with contradictory values and their relative quality may be comparatively evaluated. Many techniques for data cleansing and editing exist for detecting some errors in database but it is determinant to know which data have bad quality and to use the benefit of a qualitative expert judgment on data, which is complementary to quantitative and statistical data analysis. My contribution is to provide a multi-source perspective to data quality, to introduce and to define the concepts of multi-source database (MSDB) and multi-source data quality (MSDQ). My approach was to analyze the wide panorama of research in the literature whose problematic have some analogies with technological watch problematic. The main objective of my work was to design and to provide a storage environment for managing textual information sources, (more or less contradictory) data that are extracted from the textual content and their quality mcta-data. My work was centered on proposing : the methodology to guide step-by-step a project for data quality in a multi-source information context, the conceptual modeling of a multi-source database (MSDB) for managing data sources, multi-source data and their quality meta-data and proposing mechanisms for multi-criteria data recommendation ; the formalization of the QMSD data model (Quality of Multi-Source Data) which describes multi-source data, their quality meta-data and the set of operations for manipulating them ; the development of the sQuaL prototype for implementing and validating my propositions. In the long term, the perspectives are to develop a specific dccisional information system extending classical functionalities for (1) managing multi-source data (2) taking into account their quality meta-data and (3) proposing data-quality-based recommendation as query results. The ambition is to develop the concept of "introspective information system" ; that is to say, an information system thai is active and reactive concerning the quality of its own data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Do, Tuan Anh. „A quality-centered approach for web application engineering“. Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1201/document.

Der volle Inhalt der Quelle
Annotation:
Les développeurs d'applications Web ne sont pas tous des experts. Même s'ils utilisent des méthodes telles que UWE (UML web engineering) et les outils CASE, ils ne sont pas toujours capables de prendre de bonnes décisions concernant le contenu de l'application web, le schéma de navigation et / ou la présentation des informations. La littérature leur fournit de nombreuses lignes directrices (guidelines) pour ces tâches. Cependant, ces connaissances sont disséminées dans de nombreuses sources et non structurées. Dans cette dissertation, nous capitalisons sur les connaissances offertes par ces lignes directrices. Notre contribution est triple: (i) nous proposons un méta-modèle permettant une représentation riche de ces lignes directrices, (ii) nous proposons une grammaire permettant la description des lignes directrices existantes, (iii) sur la base de cette grammaire, nous développons un outil de gestion des lignes directrices . Nous enrichissons la méthode UWE avec cette base de connaissances menant à une approche basée sur la qualité. Ainsi, notre outil enrichit les prototypes existants d'ingénierie logicielle assistée par ordinateur basés sur UWE avec des conseils ad hoc
Web application developers are not all experts. Even if they use methods such as UWE (UML web engineering) and CASE tools, they are not always able to make good decisions regarding the content of the web application, the navigation schema, and/or the presentation of information. Literature provides them with many guidelines for these tasks. However this knowledge is disseminated in many sources and not structured. In this dissertation, we perform a knowledge capitalization of all these guidelines. The contribution is threefold: (i) we propose a meta-model allowing a rich representation of these guidelines, (ii) we propose a grammar enabling the description of existing guidelines, (iii) based on this grammar, we developed a guideline management tool. We enrich the UWE method with this knowledge base leading to a quality based approach. Thus, our tool enriches existing UWE-based Computer Aided Software Engineering prototypes with ad hoc guidance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Kurda, Reben. „Cooperation strategies for inter-cell interference mitigation in OFDMA systems“. Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112032/document.

Der volle Inhalt der Quelle
Annotation:
Récemment, l'utilisation des réseaux cellulaires a radicalement changé avec l’émergence de la quatrième génération (4G) de systèmes de télécommunications mobiles LTE/LTE-A (Long Term Evolution-Advanced). Les réseaux de générations précédentes (3G), initialement conçus pour le transport de la voix et les données à faible et moyen débits, ont du mal à faire face à l’augmentation accrue du trafic de données multimédia tout en répondant à leurs fortes exigences et contraintes en termes de qualité de service (QdS). Pour mieux répondre à ces besoins, les réseaux 4G ont introduit le paradigme des Réseaux Hétérogènes (HetNet).Les réseaux HetNet introduisent une nouvelle notion d’hétérogénéité pour les réseaux cellulaires en introduisant le concept des smalls cells (petites cellules) qui met en place des antennes à faible puissance d’émission. Ainsi, le réseau est composé de plusieurs couches (tiers) qui se chevauchent incluant la couverture traditionnelle macro-cellulaire, les pico-cellules, les femto-cellules, et les relais. Outre les améliorations des couvertures radio en environnements intérieurs, les smalls cells permettent d’augmenter la capacité du système par une meilleure utilisation du spectre et en rapprochant l’utilisateur de son point d’accès au réseau. Une des conséquences directes de cette densification cellulaire est l’interférence générée entre les différentes cellules des diverses couches quand ces dernières réutilisent les mêmes fréquences. Aussi, la définition de solutions efficaces de gestion des interférences dans ce type de systèmes constitue un de leurs défis majeurs. Cette thèse s’intéresse au problème de gestion des interférences dans les systèmes hétérogènes LTE-A. Notre objectif est d’apporter des solutions efficaces et originales au problème d’interférence dans ce contexte via des mécanismes d’ajustement de puissance des petites cellules. Nous avons pour cela distingués deux cas d’étude à savoir un déploiement à deux couches macro-femtocellules et macro-picocellules. Dans la première partie dédiée à un déploiement femtocellule et macrocellule, nous concevons une stratégie d'ajustement de puissance des femtocellules assisté par la macrocellule et qui prend en compte les performances des utilisateurs des femtocells tout en atténuant l'interférence causée aux utilisateurs des macrocellules sur leurs liens montants. Cette solution offre l’avantage de la prise en compte de paramètres contextuels locaux aux femtocellules (tels que le nombre d’utilisateurs en situation de outage) tout en considérant des scénarios de mobilité réalistes. Nous avons montré par simulation que les interférences sur les utilisateurs des macrocellules sont sensiblement réduites et que les femtocellules sont en mesure de dynamiquement ajuster leur puissance d'émission pour atteindre les objectifs fixés en termes d’équilibre entre performance des utilisateurs des macrocellules et celle de leurs propres utilisateurs. Dans la seconde partie de la thèse, nous considérons le déploiement de picocellules sous l'égide de la macrocellule. Nous nous sommes intéressés ici aux solutions d’extension de l’aire picocellulaire qui permettent une meilleure association utilisateur/cellule permettant de réduire l’interférence mais aussi offrir une meilleure efficacité spectrale. Nous proposons donc une approche basée sur un modèle de prédiction de la mobilité des utilisateurs qui permet de mieux ajuster la proportion de bande passante à partager entre la macrocellule et la picocellule en fonction de la durée de séjour estimée de ces utilisateurs ainsi que de leur demandes en bande passante. Notre solution a permis d’offrir un bon compromis entre les débits réalisables de la Macro et des picocellules
Recently the use of modern cellular networks has drastically changed with the emerging Long Term Evolution Advanced (LTE-A) technology. Homogeneous networks which were initially designed for voice-centric and low data rates face unprecedented challenges for meeting the increasing traffic demands of high data-driven applications and their important quality of service requirements. Therefore, these networks are moving towards the so called Heterogeneous Networks (HetNets). HetNets represent a new paradigm for cellular networks as their nodes have different characteristics such as transmission power and radio frequency coverage area. Consequently, a HetNet shows completely different interference characteristics compared to homogeneous deployment and attention must be paid to these disparities when different tiers are collocated together. This is mostly due to the potential spectrum frequency reuse by the involved tiers in the HetNets. Hence, efficient inter-cell interference mitigation solutions in co-channel deployments of HetNets remain a challenge for both industry and academic researchers. This thesis focuses on LTE-A HetNet systems which are based on Orthogonal Frequency Division Multiplexing Access (OFDMA) modulation. Our aim is to investigate the aggressive interference issue that appears when different types of base stations are jointly deployed together and especially in two cases, namely Macro-Femtocells and Macro-Picocells co-existence. We propose new practical power adjustment solutions for managing inter-cell interference dynamically for both cases. In the first part dedicated to Femtocells and Macrocell coexistence, we design a MBS-assisted femtocell power adjustment strategy which takes into account femtocells users performance while mitigating the inter-cell interference on victim macrocell users. Further, we propose a new cooperative and context-aware interference mitigation method which is derived for realistic scenarios involving mobility of users and their varying locations. We proved numerically that the Femtocells are able to maintain their interference under a desirable threshold by adjusting their transmission power. Our strategies provide an efficient means for achieving the desired level of macrocell/femtocell throughput trade-off. In the second part of the studies where Picocells are deployed under the umbrella of the Macrocell, we paid a special attention and efforts to the interference management in the situation where Picocells are configured to set up a cell range expansion. We suggest a MBS-assisted collaborative scheme powered by an analytical model to predict the mobility of Macrocell users passing through the cell range expansion area of the picocell. Our goal is to adapt the muting ratio ruling the frequency resource partitioning between both tiers according to the mobility behavior of the range-expanded users, thereby providing an efficient trade-off between Macrocell and Picocell achievable throughputs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Moosavi, Askari Reza, und Askari Reza Moosavi. „A quality control tool for HDR prostate brachytherapy based on patient-specific geometry and stochastic frontier analysis“. Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37078.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur le développement d’un outil de contrôle qualité basé sur l’expérience, dérivé du concept de frontière stochastique en économie et s’appuyant sur des connaissances géométriques spécifiques au patient pour améliorer la qualité des traitements de curiethérapie à haut débit de dose pour le cancer de la prostate. Cent plans cliniques de curiethérapie à haut débit de dose de la prostate ont été utilisés dans cette étude, dans laquelle l’échographie transrectale était la seule modalité d’imagerie. Une fraction unique de 15 Gy a était prescrite à tous ces patients. Un algorithme de recuit simulé de planification inverse a été appliqué pour réaliser tous les plans et Oncentra Prostate a été employé comme système d’imagerie et de planification du traitement en temps réel. Les recommandations relatives aux paramètres de dose de la société américaine de curiethérapie pour la cible et les organes à risque ont été suivies. Les relations entre les paramètres géométriques et les paramètres dosimétriques d’intérêt sont examinées. Les paramètres géométriques sont liés aux dimensions anatomiques des patients et ceux associés aux cathéters. Pour déterminer les paramètres géométriques dominants dans un modèle de frontière stochastique donné, les relations monotones entre les paramètres géométriqueset les paramètres dosimétriques d’intérêt sont mesurées avec une approche non paramétrique, à savoir le coefficient de corrélation de Spearman. Ensuite, une recherche de force brute est effectuée pour un modèle donné dans lequel différents modèles, incluant toutes les combinaisons possibles des paramètres géométriques dominantes, sont optimisés. L’optimisation est accomplie en utilisant une méthode de vraisemblance maximale implémentée dans le progiciel de calcul statistique R, avec son algorithme de recuit simulée généralisée. Le test du rapport de vraisemblance et sa valeur-p correspondante sont utilisés pour comparer la signification statistique de l’ajout de nouveaux paramètres géométriques aux modèles. Un modèle de production pour la cible et un modèle de coût pour chacun des organes à risque sont développés pour le traitement par curiethérapie à haut débit de dose guidé par l’échographie transrectale. De plus, pour valider si chacun des modèles développés est universel, nous l’appliquons à une autre catégorie de traitement de la curiethérapie à haut débit de dose, dans laquelle la tomodensitométrie était utilisée comme modalité d’imagerie plutôt que de l’échographie transrectale. Ainsi, une nouvelle cohorte de cent plans cliniques curiethérapie à haut débit de dose guidés par la tomodensitométrie est prise en compte. Un modèle de frontière stochastique de production pour la cible et trois modèles de coût pour les organes à risque basés sur la tomodensitométrie sont développés. Enfin, les modèles intégrés de la tomodensitométrie et de l’échographie transrectale sont comparés.
Cette étude porte sur le développement d’un outil de contrôle qualité basé sur l’expérience, dérivé du concept de frontière stochastique en économie et s’appuyant sur des connaissances géométriques spécifiques au patient pour améliorer la qualité des traitements de curiethérapie à haut débit de dose pour le cancer de la prostate. Cent plans cliniques de curiethérapie à haut débit de dose de la prostate ont été utilisés dans cette étude, dans laquelle l’échographie transrectale était la seule modalité d’imagerie. Une fraction unique de 15 Gy a était prescrite à tous ces patients. Un algorithme de recuit simulé de planification inverse a été appliqué pour réaliser tous les plans et Oncentra Prostate a été employé comme système d’imagerie et de planification du traitement en temps réel. Les recommandations relatives aux paramètres de dose de la société américaine de curiethérapie pour la cible et les organes à risque ont été suivies. Les relations entre les paramètres géométriques et les paramètres dosimétriques d’intérêt sont examinées. Les paramètres géométriques sont liés aux dimensions anatomiques des patients et ceux associés aux cathéters. Pour déterminer les paramètres géométriques dominants dans un modèle de frontière stochastique donné, les relations monotones entre les paramètres géométriqueset les paramètres dosimétriques d’intérêt sont mesurées avec une approche non paramétrique, à savoir le coefficient de corrélation de Spearman. Ensuite, une recherche de force brute est effectuée pour un modèle donné dans lequel différents modèles, incluant toutes les combinaisons possibles des paramètres géométriques dominantes, sont optimisés. L’optimisation est accomplie en utilisant une méthode de vraisemblance maximale implémentée dans le progiciel de calcul statistique R, avec son algorithme de recuit simulée généralisée. Le test du rapport de vraisemblance et sa valeur-p correspondante sont utilisés pour comparer la signification statistique de l’ajout de nouveaux paramètres géométriques aux modèles. Un modèle de production pour la cible et un modèle de coût pour chacun des organes à risque sont développés pour le traitement par curiethérapie à haut débit de dose guidé par l’échographie transrectale. De plus, pour valider si chacun des modèles développés est universel, nous l’appliquons à une autre catégorie de traitement de la curiethérapie à haut débit de dose, dans laquelle la tomodensitométrie était utilisée comme modalité d’imagerie plutôt que de l’échographie transrectale. Ainsi, une nouvelle cohorte de cent plans cliniques curiethérapie à haut débit de dose guidés par la tomodensitométrie est prise en compte. Un modèle de frontière stochastique de production pour la cible et trois modèles de coût pour les organes à risque basés sur la tomodensitométrie sont développés. Enfin, les modèles intégrés de la tomodensitométrie et de l’échographie transrectale sont comparés.
This thesis focuses on developing an experience-based quality control (QC) tool, derived from the concept of stochastic frontier (SF) analysis in economics and based on patient-specific geometric knowledge to improve the quality of the high-dose-rate brachytherapy (HDR-BT) treatment for prostate cancer. One hundred clinical HDR prostate BT plans, using the transrectal ultrasound (TRUS) asthe only imaging modality, all treated with a single fraction of 15 Gy, and made using Inverse PlanningSimulated Annealing (IPSA) algorithm, are studied. Also, Oncentra Prostate system is employed as the real-time 3D prostate imaging and treatment planning system. American Brachytherapy Society dose parameter recommendations for target and organs at risk (OARs) were followed. Relationships between all the different geometric parameters (GPs) and the four dosimetric parameters (DPs) V100 of the prostate, V75 of the bladder and rectum, and D10 of the urethra were examined. Geometricinformation of the patients and catheters are considered as different GPs. To find the dominant GPs in a given SF model, monotonic relationships between the GPs and DPs of interest are measured using a nonparametric approach: the Spearman correlation coefficient. Then, to determine the optimal SF model for each of the target production SF, and the OARs cost SF models, brute-force searches are performed. Different SF models including all the possible combinations of the dominant GPs in the SF model under study are optimized. Optimization is done using a maximum likelihood method implemented in the statistical computing package R, along with its Generalized Simulated Annealing algorithm. The likelihood ratio test and its corresponding p-value are used to compare the statistical significance of adding new GPs to SF models. A production SF (PSF) model for the target, and a costSF (CSF) model for each of the bladder, rectum, and urethra are developed for TRUS-guided HDR-BTtreatment. The difference between the dose value of a plan obtained by IPSA and the one predicted by an SF model is explored. Additionally, to verify if each of the models developed for the TRUS-guided category of the HDR-BT treatment for prostate is universal, we apply it on another category of HDR-BT treatment, in which computed tomography (CT) was used as the imaging modality. So, a different cohort of one hundred clinical CT-guided HDR-BT plans is taken into consideration. A target production SF and three OARs cost SF models are developed for the CT-based plans. Subsequently, the built-in SF models for the TRUS-based and CT-based plans are compared.
This thesis focuses on developing an experience-based quality control (QC) tool, derived from the concept of stochastic frontier (SF) analysis in economics and based on patient-specific geometric knowledge to improve the quality of the high-dose-rate brachytherapy (HDR-BT) treatment for prostate cancer. One hundred clinical HDR prostate BT plans, using the transrectal ultrasound (TRUS) asthe only imaging modality, all treated with a single fraction of 15 Gy, and made using Inverse PlanningSimulated Annealing (IPSA) algorithm, are studied. Also, Oncentra Prostate system is employed as the real-time 3D prostate imaging and treatment planning system. American Brachytherapy Society dose parameter recommendations for target and organs at risk (OARs) were followed. Relationships between all the different geometric parameters (GPs) and the four dosimetric parameters (DPs) V100 of the prostate, V75 of the bladder and rectum, and D10 of the urethra were examined. Geometricinformation of the patients and catheters are considered as different GPs. To find the dominant GPs in a given SF model, monotonic relationships between the GPs and DPs of interest are measured using a nonparametric approach: the Spearman correlation coefficient. Then, to determine the optimal SF model for each of the target production SF, and the OARs cost SF models, brute-force searches are performed. Different SF models including all the possible combinations of the dominant GPs in the SF model under study are optimized. Optimization is done using a maximum likelihood method implemented in the statistical computing package R, along with its Generalized Simulated Annealing algorithm. The likelihood ratio test and its corresponding p-value are used to compare the statistical significance of adding new GPs to SF models. A production SF (PSF) model for the target, and a costSF (CSF) model for each of the bladder, rectum, and urethra are developed for TRUS-guided HDR-BTtreatment. The difference between the dose value of a plan obtained by IPSA and the one predicted by an SF model is explored. Additionally, to verify if each of the models developed for the TRUS-guided category of the HDR-BT treatment for prostate is universal, we apply it on another category of HDR-BT treatment, in which computed tomography (CT) was used as the imaging modality. So, a different cohort of one hundred clinical CT-guided HDR-BT plans is taken into consideration. A target production SF and three OARs cost SF models are developed for the CT-based plans. Subsequently, the built-in SF models for the TRUS-based and CT-based plans are compared.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Li, Ge. „Contrôle des applications fondé sur la qualité de service pour les plate-formes logicielles dématérialisées (Cloud)“. Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA018/document.

Der volle Inhalt der Quelle
Annotation:
Le « Cloud computing » est un nouveau modèle de systèmes de calcul. L’infrastructure, les applications et les données sont déplacées de machines localisées sur des systèmes dématérialisés accédés sous forme de service via Internet. Le modèle « coût à l’utilisation » permet des économies de coût en modifiant la configuration à l’exécution (élasticité). L’objectif de cette thèse est de contribuer à la gestion de la Qualité de Service (QdS) des applications s’exécutant dans le Cloud. Les services Cloud prétendent fournir une flexibilité importante dans l’attribution des ressources de calcul tenant compte des variations perçues, telles qu’une fluctuation de la charge. Les capacités de variation doivent être précisément exprimées dans un contrat (le Service Level Agreement, SLA) lorsque l’application est hébergée par un fournisseur de Plateform as a Service (PaaS). Dans cette thèse, nous proposons et nous décrivons formellement le langage de description de SLA PSLA. PSLA est fondé sur WS-Agreement qui est lui-même un langage extensible de description de SLA. Des négociations préalables à la signature du SLA sont indispensables, pendant lesquelles le fournisseur de PaaS doit évaluer la faisabilité des termes du contrat. Cette évaluation, par exemple le temps de réponse, le débit maximal de requêtes servies, etc, est fondée sur une analyse du comportement de l’application déployée dans l’infrastructure cloud. Une analyse du comportement de l’application est donc nécessaire et habituellement assurée par des tests (benchmarks). Ces tests sont relativement coûteux et une étude précise de faisabilité demande en général de nombreux tests. Dans cette thèse, nous proposons une méthode d’étude de faisabilité concernant les critères de performance, à partir d’une proposition de SLA exprimée en PSLA. Cette méthode est un compromis entre la précision d’une étude exhaustive de faisabilité et les coûts de tests. Les résultats de cette étude constituent le modèle initial de la correspondance charge entrante-allocation de ressources utilisée à l’exécution. Le contrôle à l’exécution (runtime control) d’une application gère l’allocation de ressources en fonction des besoins, s’appuyant en particulier sur les capacités de passage à l’échelle (scalability) des infrastructures de cloud. Nous proposons RCSREPRO (Runtime Control method based on Schedule, REactive and PROactive methods), une méthode de contrôle à l’exécution fondée sur la planification et des contrôles réactifs et prédictifs. Les besoins d’adaptation à l’exécution sont essentiellement dus à une variation de la charge soumise à l’application, variations difficiles à estimer avant exécution et seulement grossièrement décrites dans le SLA. Il est donc nécessaire de reporter à l’exécution les décisions d’adaptation et d’y évaluer les possibles variations de charge. Comme les actions de modification des ressources attribuées peuvent prendre plusieurs minutes, RCSREPRO réalise un contrôle prédictif fondée sur l’analyse de charge et la correspondance indicateurs de performance-ressources attribuées, initialement définie via des tests. Cette correspondance est améliorée en permanence à l’exécution. En résumé, les contributions de cette thèse sont la proposition de langage PSLA pour décrire les SLA ; une proposition de méthode pour l’étude de faisabilité d’un SLA ; une proposition de méthode (RCSREPRO) de contrôle à l’exécution de l’application pour garantir le SLA. Les travaux de cette thèse s’inscrivent dans le contexte du projet FSN OpenCloudware (www.opencloudware.org) et ont été financés en partie par celui-ci
Cloud computing is a new computing model. Infrastructure, application and data are moved from local machines to internet and provided as services. Cloud users, such as application owners, can greatly save budgets from the elasticity feature, which refers to the “pay as you go” and on-demand characteristics, of cloud service. The goal of this thesis is to manage the Quality of Service (QoS) for applications running in cloud environments Cloud services provide application owners with great flexibility to assign “suitable” amount of resources according to the changing needs, for example caused by fluctuating request rate. “Suitable” or not needs to be clearly documented in Service Level Agreements (SLA) if this resource demanding task is hosted in a third party, such as a Platform as a Service (PaaS) provider. In this thesis, we propose and formally describe PSLA, which is a SLA description language for PaaS. PSLA is based on WS-Agreement, which is extendable and widely accepted as a SLA description language. Before signing the SLA contract, negotiations are unavoidable. During negotiations, the PaaS provider needs to evaluate if the SLA drafts are feasible or not. These evaluations are based on the analysis of the behavior of the application deployed in the cloud infrastructure, for instance throughput of served requests, response time, etc. Therefore, application dependent analysis, such as benchmark, is needed. Benchmarks are relatively costly and precise feasibility study usually imply large amount of benchmarks. In this thesis, we propose a benchmark based SLA feasibility study method to evaluate whether or not a SLA expressed in PSLA, including QoS targets, resource constraints, cost constraints and workload constraints can be achieved. This method makes tradeoff between the accuracy of a SLA feasibility study and benchmark costs. The intermediate of this benchmark based feasibility study process will be used as the workload-resource mapping model of our runtime control method. When application is running in a cloud infrastructure, the scalability feature of cloud infrastructures allows us to allocate and release resources according to changing needs. These resource provisioning activities are named runtime control. We propose the Runtime Control method based onSchedule, REactive and PROactive methods (RCSREPRO). Changing needs are mainly caused by the fluctuating workload for majority of the applications running in the cloud. The detailed workload information, for example the request arrival rates at scheduled points in time, is difficult to be known before running the application. Moreover, workload information listed in PSLA is too rough to give a fitted resource provisioning schedule before runtime. Therefore, runtime control decisions are needed to be performed in real time. Since resource provisioning actions usually require several minutes, RCSREPRO performs a proactive runtime control which means that it predicts future needs and assign resources in advance to have them ready when they are needed. Hence, prediction of the workload and workload-resource mapping are two problems involved in proactive runtime control. The workload-resource mapping model, which is initially derived from benchmarks in SLA feasibility study is continuously improved in a feedback way at runtime, increasing the accuracy of the control.To sum up, we contribute with three aspects to the QoS management of application running in the cloud: creation of PSLA, a PaaS level SLA description language; proposal of a benchmark based SLA feasibility study method; proposal of a runtime control method, RCSREPRO, to ensure the SLA when the application is running. The work described in this thesis is motivated and funded by the FSN OpenCloudware project (www.opencloudware.org)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Gros, Raphaël. „Fonctionnement et qualité des sols soumis à des perturbations d'origine anthropique : réponses du sol, de la flore, de la microflore bactérienne tellurique“. Chambéry, 2002. http://www.theses.fr/2002CHAMS027.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Lefebvre, Frederic. „Gestion de la qualité des bâtiments en phase de conception dans un système de C. A. O“. Chambéry, 1991. http://www.theses.fr/1991CHAM5009.

Der volle Inhalt der Quelle
Annotation:
Nous proposons les principes d'un outil de gestion de la qualité du projet de bâtiment en cours de conception articule selon deux axes: 1) une représentation de la qualité mettant en relief la satisfaction fonctionnelle apportée par les éléments du projet et les interactions fonctionnelles entre éléments; 2) un processus d'amélioration de la qualité du bâtiment basée sur une analyse permettant d'identifier les dysfonctionnements et sur une recherche de modifications réduisant ces dysfonctionnements. Pour le premier axe, nous proposons un modèle du projet en cours de conception décrivant le bâtiment par des objets physiques, objets polymorphes comportant les trois pôles systémiques: morphologie, fonctions, évolution. Nous exploitons ce modèle en présentant un constat qualité du bâtiment pour une partie réduite du projet définie par un concepteur: son point de vue. Dans le cadre de l'amélioration de la qualité, nous unifions analyse du projet et recherche de solutions en un unique processus de diagnostic de problèmes de conception base sur une démarche descendante d'identification de problèmes courants que l'on cherche à reconnaitre au sein du projet. Nous modifions une méthode issue de l'intelligence artificielle: le diagnostic par reconnaissance de prototypes; afin de l'adapter aux spécificités conjointes du projet de bâtiment et de la recherche d'amélioration de la qualité. Les hypothèses présidant au développement de cette méthode sont validées par la présentation d'un réseau de problèmes de conception théorique et les résultats d'une expertise menée auprès de spécialistes de la conception des bâtiments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Wang, Yiguo. „A new air quality modelling approach at the regional scale using lidar data assimilation“. Palaiseau, Ecole polytechnique, 2013. http://pastel.archives-ouvertes.fr/docs/00/95/75/23/PDF/these_wangy.pdf.

Der volle Inhalt der Quelle
Annotation:
L'assimilation de données lidar pour la modélisation de la qualité de l'air est étudiée via le développement d'un modèle d'assimilation des observations d'un réseau lidar au sol par la méthode d'interpolation optimale (IO) dans un modèle de chimie-transport. Dans un premier temps, un outil d'assimilation des concentrations de PM10 (particules en suspension dans l'air dont le diamètre est inférieur à 10 um) sur la verticale est développé dans la plateforme de modélisation de la qualité de l'air POLYPHEMUS. Cet outil est appliqué sur l'Europe de l'Ouest, du 15 juillet au 15 août 2001, afin d'étudier l'impact potentiel d'un futur réseau lidar au sol sur la modélisation et les prévisions (la description de l'avenir) des PM10. En utilisant un réseau lidar fictif, l'efficacité de l'assimilation des mesures d'un réseau lidar est comparée à celle d'assimiler des mesures de concentrations du réseau au sol AirBase, qui comprend environ 500 stations sol en Europe de l'Ouest. Des études de sensibilité sur le nombre et la position géographique des lidars sont également menées afin d'aider à définir un réseau lidar optimal pour les prévisions des PM10. Ensuite, un modèle de simulation de signal lidar normalisé (PR2) est construit et intégré dans POLYPHEMUS. Il est évalué par comparaison aux mesures d'un lidar mobile et d'un lidar fixe en Île-de-France durant la campagne d'été du programme de recherche européen MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation, juillet 2009). Les résultats montrent que ce modèle reproduit correctement la distribution verticale des propriétés optiques des aérosols et leur variabilité temporelle. Deux nouveaux algorithmes d'assimilation de signaux lidar sont également introduits et évalués durant la campagne MEGAPOLI. Les simulations des concentrations en masse d'aérosol avec et sans assimilation de données lidar sont évaluées en utilisant les données d'AIRPARIF (un réseau opérationnel régional pour la qualité de l'air en Île-de-France) pour démontrer la faisabilité et l'utilité de l'assimilation des signaux lidar pour les prévisions d'aérosols. Enfin, POLYPHEMUS, avec le modèle d'assimilation des signaux lidar, est appliqué dans le bassin Méditerranéen, où 9 lidar du réseau ACTRIS/EARLINET et 1 lidar à Corse ont effectué une période de 72 heures de mesures intensives et continues en juillet 2012 (Pre-CHArMEx). Les paramètres dans le modèle d'assimilation des signaux lidar sont aussi étudiés pour mieux caractériser son impact spatial et temporel sur les prévisions d'aérosols
Assimilation of lidar observations for air quality modelling is investigated via the development of a new model, which assimilates ground-based lidar network measurements using optimal interpolation (OI) in a chemistry transport model. First, a tool for assimilating PM10 (particulate matter with a diameter lower than 10 um) concentration measurements on the vertical is developed in the air quality modelling platform POLYPHEMUS. It is applied to western Europe for one month from 15 July to 15 August 2001 to investigate the potential impact of future ground-based lidar networks on analysis and short-term forecasts (the description of the future) of PM10. The efficiency of assimilating lidar network measurements is compared to the efficiency of assimilating concentration measurements from the AirBase ground network, which includes about 500 stations in western Europe. A sensitivity study on the number and location of required lidars is also performed to help define an optimal lidar network for PM10 forecasts. Secondly, a new model for simulating normalised lidar signals (PR2) is developed and integrated in POLYPHEMUS. Simulated lidar signals are compared to hourly ground-based mobile and in-situ lidar observations performed during the MEGAPOLI (Megacities : Emissions, urban, regional and Global Atmospheric POLlution and climate effects, and Integrated tools for assessment and mitigation) summer experiment in July 2009. It is found that the model correctly reproduces the vertical distribution of aerosol optical properties and their temporal variability. Additionally, two new algorithms for assimilating lidar signals are presented and evaluated during MEGAPOLI. The aerosol simulations without and with lidar data assimilation are evaluated using the AIRPARIF (a regional operational network in charge of air quality survey around the Paris area) database to demonstrate the feasibility and the usefulness of assimilating lidar profiles for aerosol forecasts. Finally, POLYPHEMUS with the model for assimilating lidar signals is applied to the Mediterranean basin, where 9 ground-based lidar stations from the ACTRIS/EARLINET network and 1 lidar station in Corsica performed a 72-hour period of intensive and continuous measurements in July 2012. Several parameters of the assimilation system are also studied to better estimate the spatial and temporal influence of the assimilation of lidar signals on aerosol forecasts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Do, Tuan Anh. „A quality-centered approach for web application engineering“. Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1201.

Der volle Inhalt der Quelle
Annotation:
Les développeurs d'applications Web ne sont pas tous des experts. Même s'ils utilisent des méthodes telles que UWE (UML web engineering) et les outils CASE, ils ne sont pas toujours capables de prendre de bonnes décisions concernant le contenu de l'application web, le schéma de navigation et / ou la présentation des informations. La littérature leur fournit de nombreuses lignes directrices (guidelines) pour ces tâches. Cependant, ces connaissances sont disséminées dans de nombreuses sources et non structurées. Dans cette dissertation, nous capitalisons sur les connaissances offertes par ces lignes directrices. Notre contribution est triple: (i) nous proposons un méta-modèle permettant une représentation riche de ces lignes directrices, (ii) nous proposons une grammaire permettant la description des lignes directrices existantes, (iii) sur la base de cette grammaire, nous développons un outil de gestion des lignes directrices . Nous enrichissons la méthode UWE avec cette base de connaissances menant à une approche basée sur la qualité. Ainsi, notre outil enrichit les prototypes existants d'ingénierie logicielle assistée par ordinateur basés sur UWE avec des conseils ad hoc
Web application developers are not all experts. Even if they use methods such as UWE (UML web engineering) and CASE tools, they are not always able to make good decisions regarding the content of the web application, the navigation schema, and/or the presentation of information. Literature provides them with many guidelines for these tasks. However this knowledge is disseminated in many sources and not structured. In this dissertation, we perform a knowledge capitalization of all these guidelines. The contribution is threefold: (i) we propose a meta-model allowing a rich representation of these guidelines, (ii) we propose a grammar enabling the description of existing guidelines, (iii) based on this grammar, we developed a guideline management tool. We enrich the UWE method with this knowledge base leading to a quality based approach. Thus, our tool enriches existing UWE-based Computer Aided Software Engineering prototypes with ad hoc guidance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Garduno, Barrera David Rafael. „A differentiated quality of service oriented multimedia multicast protocol“. Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7383/1/gardunobarrera.pdf.

Der volle Inhalt der Quelle
Annotation:
Modern multimedia (MM) communication systems aim to provide new services such as multicast (MC) communication. But the rising of new very different MM capable devices and the growing number of clients drive to new requirements for mechanisms and protocols. In a MM communication, there are some flows that have constraints different from others and the required QoS for each flow is not the same. Furthermore, in MC communications, all the users do not want or are not able to receive the same QoS. These constraints imply that new communication mechanisms have to take into account the user requirements in order to provide an ad hoc service to each user and to avoid wasting the network resources. This dissertation proposes a new differentiated QoS multicast architecture, based on client/server proxies, called M-FPTP, which relays many MC LANs by single partially reliable links. This architecture provides a different QoS to each LAN depending on the users requirements. For doing so, it is also provided a network model called Hierarchized Graph (HG) which represents at the same time the network performances and the users QoS constraints. Nevertheless, the application of standard tree creation methods on an HG can lead to source overloading problems. It is then proposed a new algorithm called Degree-Bounded Shortest-Path-Tree (DgB-SPT) which solves this problem. However, the deployment of such a service needs a new protocol in order to collect users requirements and correctly deploy the proxies. This protocol is called Simple Session Protocol for QoS MC (SSP-QoM). The proposed solutions have been modeled, verified, validated and tested by using UML 2.0 and TAU G2 CASE tool.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Garduno, Barrera David Rafael. „A differentiated quality of service oriented multimedia multicast protocol“. Phd thesis, Toulouse, INPT, 2005. http://hal.science/tel-00009582.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose M-FPTP, une nouvelle architecture multipoint (MP) à QdS différentiée. Basée sur des proxies client/serveur, elle connecte plusieurs LANs MP en utilisant des connections partiellement fiables. Cette architecture fournit une QdS différente pour chaque LAN par rapport à ses besoins. Pour ce faire, on a d’abord proposé un Arbre Hiérarchisé (AH) qui représente en même temps les performances du réseau et les contraintes de QdS des utilisateurs. Cependant, l’application de méthodes standard de création d’arbres sur un AH peut conduire à des problèmes de surcharge de la source. Un nouvel algorithme appelé Arbre de Plus Courts Chemins Limité en Sortie résout ce problème. Le déploiement de ce service nécessite, pour gérer les utilisateurs et le déploiement correct des proxies, un nouveau protocole appelé Protocole Simple de Session pour QdS MP
Modern multimedia (MM) communication systems aim to provide new services such as multicast (MC) communication. But the rising of new very different MM capable devices and the growing number of clients drive to new requirements for mechanisms and protocols. In a MM communication, there are some flows that have constraints different from others and the required QoS for each flow is not the same. Furthermore, in MC communications, all the users do not want or are not able to receive the same QoS. These constraints imply that new communication mechanisms have to take into account the user requirements in order to provide an ad hoc service to each user and to avoid wasting the network resources. This dissertation proposes a new differentiated QoS multicast architecture, based on client/server proxies, called M-FPTP, which relays many MC LANs by single partially reliable links. This architecture provides a different QoS to each LAN depending on the users requirements. For doing so, it is also provided a network model called Hierarchized Graph (HG) which represents at the same time the network performances and the users QoS constraints. Nevertheless, the application of standard tree creation methods on an HG can lead to source overloading problems. It is then proposed a new algorithm called Degree-Bounded Shortest-Path-Tree (DgB-SPT) which solves this problem. However, the deployment of such a service needs a new protocol in order to collect users requirements and correctly deploy the proxies. This protocol is called Simple Session Protocol for QoS MC (SSP-QoM). The proposed solutions have been modeled, verified, validated and tested by using UML 2. 0 and TAU G2 CASE tool
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Moosavi, Askari Reza. „A quality control tool for HDR prostate brachytherapy based on patient-specific geometry and stochastic frontier analysis“. Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37078.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur le développement d’un outil de contrôle qualité basé sur l’expérience, dérivé du concept de frontière stochastique en économie et s’appuyant sur des connaissances géométriques spécifiques au patient pour améliorer la qualité des traitements de curiethérapie à haut débit de dose pour le cancer de la prostate. Cent plans cliniques de curiethérapie à haut débit de dose de la prostate ont été utilisés dans cette étude, dans laquelle l’échographie transrectale était la seule modalité d’imagerie. Une fraction unique de 15 Gy a était prescrite à tous ces patients. Un algorithme de recuit simulé de planification inverse a été appliqué pour réaliser tous les plans et Oncentra Prostate a été employé comme système d’imagerie et de planification du traitement en temps réel. Les recommandations relatives aux paramètres de dose de la société américaine de curiethérapie pour la cible et les organes à risque ont été suivies. Les relations entre les paramètres géométriques et les paramètres dosimétriques d’intérêt sont examinées. Les paramètres géométriques sont liés aux dimensions anatomiques des patients et ceux associés aux cathéters. Pour déterminer les paramètres géométriques dominants dans un modèle de frontière stochastique donné, les relations monotones entre les paramètres géométriqueset les paramètres dosimétriques d’intérêt sont mesurées avec une approche non paramétrique, à savoir le coefficient de corrélation de Spearman. Ensuite, une recherche de force brute est effectuée pour un modèle donné dans lequel différents modèles, incluant toutes les combinaisons possibles des paramètres géométriques dominantes, sont optimisés. L’optimisation est accomplie en utilisant une méthode de vraisemblance maximale implémentée dans le progiciel de calcul statistique R, avec son algorithme de recuit simulée généralisée. Le test du rapport de vraisemblance et sa valeur-p correspondante sont utilisés pour comparer la signification statistique de l’ajout de nouveaux paramètres géométriques aux modèles. Un modèle de production pour la cible et un modèle de coût pour chacun des organes à risque sont développés pour le traitement par curiethérapie à haut débit de dose guidé par l’échographie transrectale. De plus, pour valider si chacun des modèles développés est universel, nous l’appliquons à une autre catégorie de traitement de la curiethérapie à haut débit de dose, dans laquelle la tomodensitométrie était utilisée comme modalité d’imagerie plutôt que de l’échographie transrectale. Ainsi, une nouvelle cohorte de cent plans cliniques curiethérapie à haut débit de dose guidés par la tomodensitométrie est prise en compte. Un modèle de frontière stochastique de production pour la cible et trois modèles de coût pour les organes à risque basés sur la tomodensitométrie sont développés. Enfin, les modèles intégrés de la tomodensitométrie et de l’échographie transrectale sont comparés.
This thesis focuses on developing an experience-based quality control (QC) tool, derived from the concept of stochastic frontier (SF) analysis in economics and based on patient-specific geometric knowledge to improve the quality of the high-dose-rate brachytherapy (HDR-BT) treatment for prostate cancer. One hundred clinical HDR prostate BT plans, using the transrectal ultrasound (TRUS) asthe only imaging modality, all treated with a single fraction of 15 Gy, and made using Inverse PlanningSimulated Annealing (IPSA) algorithm, are studied. Also, Oncentra Prostate system is employed as the real-time 3D prostate imaging and treatment planning system. American Brachytherapy Society dose parameter recommendations for target and organs at risk (OARs) were followed. Relationships between all the different geometric parameters (GPs) and the four dosimetric parameters (DPs) V100 of the prostate, V75 of the bladder and rectum, and D10 of the urethra were examined. Geometricinformation of the patients and catheters are considered as different GPs. To find the dominant GPs in a given SF model, monotonic relationships between the GPs and DPs of interest are measured using a nonparametric approach: the Spearman correlation coefficient. Then, to determine the optimal SF model for each of the target production SF, and the OARs cost SF models, brute-force searches are performed. Different SF models including all the possible combinations of the dominant GPs in the SF model under study are optimized. Optimization is done using a maximum likelihood method implemented in the statistical computing package R, along with its Generalized Simulated Annealing algorithm. The likelihood ratio test and its corresponding p-value are used to compare the statistical significance of adding new GPs to SF models. A production SF (PSF) model for the target, and a costSF (CSF) model for each of the bladder, rectum, and urethra are developed for TRUS-guided HDR-BTtreatment. The difference between the dose value of a plan obtained by IPSA and the one predicted by an SF model is explored. Additionally, to verify if each of the models developed for the TRUS-guided category of the HDR-BT treatment for prostate is universal, we apply it on another category of HDR-BT treatment, in which computed tomography (CT) was used as the imaging modality. So, a different cohort of one hundred clinical CT-guided HDR-BT plans is taken into consideration. A target production SF and three OARs cost SF models are developed for the CT-based plans. Subsequently, the built-in SF models for the TRUS-based and CT-based plans are compared.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Pretot, Pierre-Emmanuel. „Air quality improvement in closed or semi-closed areas with a minimal energy consumption“. Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0023.

Der volle Inhalt der Quelle
Annotation:
La qualité de l’air est un facteur clépour la santé. Les polluants intérieurs sontnombreux avec des attributs et comportementspropres. Des solutions existent pour les traitermais la consommation énergétique ou lamaintenance sont des points clés et il faut doncoptimiser ces solutions à chaque cas. L’objectifde cette thèse est de proposer des méthodes desimulation temps réel d’optimisation.D’après la littérature, les particules liées àl’activité ferroviaire sont la principaleproblématique au niveau des stations de trainsouterraines et celles-ci sont traitées séparémentdes autres milieux clos en utilisant une approche1D. Les niveaux de concentration journalierspour différentes classes de particules sontreproduits à partir d’un jeu d’équations pour deuxcas d’étude. La discrétisation 1D permet ensuited’implémenter des solutions de dépollution lelong des quais pour évaluation. Les résultatsavec cette méthode corrèlent plutôt bien auxessais réalisés et chaque configuration estévaluée en moins d’une minute.Une méthode FFD permettant des simulationstransitoires est évaluée pour les autresenvironnements intérieurs. L’objectif principal iciest d’évaluer la précision de la modélisation duflux d’air pour une simulation temps réel. Eneffet, le comportement d’un polluant est trèsdépendant de celui-ci. Après une premièreévaluation, la méthode FFD utilisant un maillagegrossier parait assez précise en comparaison àla CFD standard pour être utilisée comme outild’optimisation de solution de dépollution maisune analyse approfondie est nécessaire
Air quality is a key factor regardinghuman health. Indoor air pollutants are numerousand have different characteristics and behavior.Solutions to treat these pollutants already existbut energy consumption or maintenance are keypoints and optimization for each case is required.In this PhD thesis, simulation methods areproposed for this with real time simulation astarget.Based on literature review, particles linked withtrain activity are the main problematic insidesubterranean train stations. Due to its specificity,they are treated separately from other indoorvolumes and a 1D approach is used here. Basedon a differential equations set using physicalparameters like air and train velocities, the dailyparticles concentrations for different particlessize classes are well reproduced for two studycases. The 1D discretization allow then toimplement depollution solutions along theplatforms for evaluation. The method givespretty good results compared to measurementsand each configuration is evaluated in less thana minute.An FFD method allowing transient simulations isthen evaluated for other indoor environments.The main objective here is to evaluate theairflow modelling accuracy for a real timesimulation. Indeed, pollutant behavior highlydepends on airflow. After a first evaluation, theFFD method using coarse mesh grid seems tobe accurate enough based on comparison withstandard Computational Fluid Dynamics to beused as tool for optimization of depollutionsolution but deeper analysis is needed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Lier, Luc Van. „A general equilibrium approach to the quality of working life“. Doctoral thesis, Universite Libre de Bruxelles, 1986. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213571.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Remenaric, Hajak Mateja. „Study of ribonucleoprotein particle biogenesis and quality control by a novel technique using bacterial Rho factor as a tool“. Thesis, Orléans, 2016. http://www.theses.fr/2016ORLE2013/document.

Der volle Inhalt der Quelle
Annotation:
Chez les eucaryotes, l’information génétique est transcrite en ARN messager qui subit plusieurs étapes de maturation et évènements d’assemblage avant d’être exporté hors du noyau. Ces modifications du transcrit sont effectuées par de nombreux facteurs protéiques recrutés au transcrit naissant, formant ainsi une particule ribonucléoprotéique (mRNP). La biogenèse du mRNP est étroitement liée avec la transcription et le contrôle qualité afin d’assurer l’efficacité et l’exactitude de la production de mRNPs matures. Des études récentes suggèrent que les membres du complexe THO-Sub2 pourraient être des facteurs cruciaux dans le couplage de la transcription, de la biogénèse du mRNP et de l’export. Dans notre groupe, nous avons mis en oeuvre un essai novateur pour étudier la biogénèse du mRNP et le contrôle qualité, basé sur l’expression du facteur Rho bactérien dans Saccharomyces cerevisiae. Rho interfère avec l’assemblage adéquat du mRNP et génère des transcrits aberrants qui sont dégradés par la machinerie de dégradation nucléaire. Dans cette étude, nous avons utilisé le système expérimental Rho pour mieux comprendre Rrp6 et l’implication de l’exosome dans la dégradation des transcrits liée au contrôle qualité, ainsi que pour mieux caractériser le rôle et la fonction du complexe THO-Sub2 dans le processus de biogénèse du mRNP. Les résultats obtenus révèlent une différence intéressante dans le comportement des membres du complexe THO sous l’action de Rho et dévoilent leur dépendance à la liaison à l’ARN, ce qui n’aurait pas pu être observé avec d’autres techniques expérimentales. Cela confirme le potentiel attendu du système expérimental basé sur Rho dans l’étude des facteurs protéiques impliqués dans la biogénèse et le contrôle qualité du mRNP
In eukaryotes, the genetic information is transcribed into messenger RNA which undergoes various processing and assembly events prior to its export from the nucleus. These transcript modifications are performed by numerous protein factors recruited to the nascent transcript, thus making a messenger ribonucleoprotein particle (mRNP). mRNP biogenesis is tightly interconnected with both transcription and quality control to ensure efficiency and accuracy in production of mature mRNPs. Recent findings suggest that members of THO-Sub2 complex might be crucial factors in coupling transcription, mRNP biogenesis and export. In our group, we have implemented an innovative assay to study mRNP biogenesis and quality control, based on the expression of the bacterial factor Rho in Saccharomyces cerevisiae. Rho interferes with proper mRNP assembly and generates aberrant transcripts degraded by the nuclear degradation machinery. In this study, we use Rho experimental system to expand our findings on Rrp6 and exosome involvement in quality control degradation of transcripts, as well as to better characterize the role and function of THO-Sub2 complex in the process of mRNP biogenesis. Obtained results reveal an interesting difference in behavior of THO complex members upon Rho action and disclose their dependence on binding to the RNA, which could not be observed by other experimental techniques. This substantiates the expected potential of Rho-based experimental system in the study of protein factors involved in mRNP biogenesis and quality control
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Gong, Qifeng. „Quality, satisfaction and loyalty : a comparison of SERVQUAL and SERVPERF for educational service in China“. Grenoble 2, 2009. http://www.theses.fr/2009GRE21043.

Der volle Inhalt der Quelle
Annotation:
Au cours des trois dernières décennies, l'économie chinoise a connu une croissance rapide. Accompagnant le développement important de l‘économie, l'investissement dans l'éducation a lui aussi augmenté de façon spectaculaire. Pour les écoles, le problème clé est la façon de gérer, la qualité des services d'enseignement, la satisfaction et la loyauté. D'autres problèmes concernent la façon de mesurer la qualité de service et continent l'améliorer, quels facteurs sont importants pour le service éducatif. Dans ce contexte, cette thèse se concentre sur la comparaison des deux méthodes de mesure de la qualité de service, SERVQUAL et SERVPERF, et sur la comparaison de leurs effets sur l'explication et la prédiction de la satisfaction des étudiants et de leur loyauté. Dans cette thèse, 332 étudiants d'une école de formation type, choisis au hasard à partir 1mars 2008 au 15 avril 2008, ont participé à l'enquête formelle. Ils ont été interrogés en salle de classe et 282 questionnaires ont été collectés, sur lesquels 255 ont été retenus. La recherche aboutit aux conclusions suivantes: l) il est vérifié que la fiabilité et la validité de la méthode SERVPERF sont très supérieures à celles de la méthode SERVQUAL, 2), il est vérifié qu'il existe des différences significatives dans la qualité du service mesurée par SERVQUAL et par SERVPERF. 3) ll est vérifié que la qualité des services éducatifs influence de façon positive et significative la satisfaction des étudiants. Mais en comparant SERVQUAL et SERVPERF, ce dernier est nettement supérieur a SERVQUAL pour expliquer et prédire la satisfaction des étudiants, 4) ll est vérifié que la qualité des services éducatifs influence de façon positive et significative la loyauté des étudiants. Dans cette comparaison, SERVPERF est significativement supérieur à SERVQUAL dans l'explication et la prédiction de la loyauté des étudiants. 5) l'étude constate la qualité du service éducatif est le facteur clé qui détermine directement la satisfaction des étudiants et directement / indirectement les effets de loyauté. La satisfaction a un rôle de médiateur partiel dans l'influence de la qualité perçue des services sur la loyauté
During the past three decades, Chinese economy has enjoyed a rapid growth. With the great development of the economy, the educational investment also increases dramatically. For the schools. How to manage the educational service quality, satisfaction and loyalty is the key problem. Other problems include how to measure the service quality and how to upgrade that, which factors are important to educational service, and etc. Under this background, this thesis focuses on the comparison of the two service quality measurement methods, SERVQUAL and SERVPERF, and on the comparison of their effects on explaining and predicting students' satisfaction and their loyalty. In this thesis, a total of 332 students of a typical training school, selected randomly from Mar. 1. 2008 to Apr. L5. 2008, participated in the formal survey. They were interviewed in the A classroom and 282 questionnaires were collected, among which 255 were qualified. The research reaches the following conclusions: 1) it is verified that the reliability and validity of SERVPERF is much better than of SERVQUAL; 2) it is verified that there are significant differences in service quality measured by SERVQUAL and by SERVPERF. 3) it is verified that educational service quality positively and significantly influences the students' satisfaction, But for the comparison between SERVQUAL and SERVPERF, the latter is significantly superior to the former in explaining and predicting the students satisfaction, 4) it is verified that educational service quality positively and significantly influences the students’ loyalty. But also for the comparison, SERVPERF is significantly superior to SERVQUAL in explaining and predicting the students’ loyalty. 5) the study finds educational service quality is the key factor, which directly i determines students’ satisfaction and directly/indirectly impacts loyalty. And the role of satisfaction is a partial mediator in the inluence of percevied service quality on loyalty
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Mushtaq, Muhammad Sajid. „Apport de la Qualité de l’Expérience dans l’optimisation de services multimédia : application à la diffusion de la vidéo et à la VoIP“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1025/document.

Der volle Inhalt der Quelle
Annotation:
L'émergence et la croissance rapide des services multimédia dans les réseaux IP ont créé de nouveaux défis pour les fournisseurs de services réseau, qui, au-delà de la Qualité de Service (QoS) issue des paramètres techniques de leur réseau, doivent aussi garantir la meilleure qualité de perception utilisateur (Quality of Experience, QoE) dans des réseaux variés avec différentes technologies d'accès. Habituellement, différentes méthodes et techniques sont utilisées pour prédire le niveau de satisfaction de l'utilisateur, en analysant l'effet combiné de multiples facteurs. Dans cette thèse, nous nous intéressons à la commande du réseau en intégrant à la fois des aspects qualitatifs (perception du niveau de satisfaction de l'usager) et quantitatifs (mesure de paramètres réseau) dans l'objectif de développer des mécanismes capables, à la fois, de s'adapter à la variabilité des mesures collectées et d'améliorer la qualité de perception. Pour ce faire, nous avons étudié le cas de deux services multimédia populaires, qui sont : le streaming vidéo, et la voix sur IP (VoIP). Nous investiguons la QoE utilisateur de ces services selon trois aspects : (1) les méthodologies d'évaluation subjective de la QoE, dans le cadre d'un service vidéo, (2) les techniques d'adaptation de flux vidéo pour garantir un certain niveau de QoE, et (3) les méthodes d'allocation de ressource, tenant compte de la QoE tout en économisant l'énergie, dans le cadre d'un service de VoIP (LTE-A). Nous présentons d'abord deux méthodes pour récolter des jeux de données relatifs à la QoE. Nous utilisons ensuite ces jeux de données (issus des campagnes d'évaluation subjective que nous avons menées) pour comprendre l'influence de différents paramètres (réseau, terminal, profil utilisateur) sur la perception d'un utilisateur d'un service vidéo. Nous proposons ensuite un algorithme de streaming vidéo adaptatif, implémenté dans un client HTTP, et dont le but est d'assurer un certain niveau de QoE et le comparons à l'état de l'art. Notre algorithme tient compte de trois paramètres de QoS (bande passante, taille de mémoires tampons de réception et taux de pertes de paquets) et sélectionne dynamiquement la qualité vidéo appropriée en fonction des conditions du réseau et des propriétés du terminal de l'utilisateur. Enfin, nous proposons QEPEM (QoE Power Efficient Method), un algorithme d'ordonnancement basé sur la QoE, dans le cadre d'un réseau sans fil LTE, en nous intéressant à une allocation dynamique des ressources radio en tenant compte de la consommation énergétique
The emerging and fast growth of multimedia services have created new challenges for network service providers in order to guarantee the best user's Quality of Experience (QoE) in diverse networks with distinctive access technologies. Usually, various methods and techniques are used to predict the user satisfaction level by studying the combined impact of numerous factors. In this thesis, we consider two important multimedia services to evaluate the user perception, which are: video streaming service, and VoIP. This study investigates user's QoE that follows three directions: (1) methodologies for subjective QoE assessment of video services, (2) regulating user's QoE using video a rate adaptive algorithm, and (3) QoE-based power efficient resource allocation methods for Long Term Evaluation-Advanced (LTE-A) for VoIP. Initially, we describe two subjective methods to collect the dataset for assessing the user's QoE. The subjectively collected dataset is used to investigate the influence of different parameters (e.g. QoS, video types, user profile, etc.) on user satisfaction while using the video services. Later, we propose a client-based HTTP rate adaptive video streaming algorithm over TCP protocol to regulate the user's QoE. The proposed method considers three Quality of Service (QoS) parameters that govern the user perception, which are: Bandwidth, Buffer, and dropped Frame rate (BBF). The BBF method dynamically selects the suitable video quality according to network conditions and user's device properties. Lastly, we propose a QoE driven downlink scheduling method, i.e. QoE Power Escient Method (QEPEM) for LTE-A. It esciently allocates the radio resources, and optimizes the use of User Equipment (UE) power utilizing the Discontinuous Reception (DRX) method in LTE-A
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Carette, Pierre. „Développement d’un programme multifactoriel de prévention à domicile des facteurs de risque de chute des personnes âgées : évaluation de l’efficacité du programme et de l’apport de la posturographie“. Poitiers, 2012. http://www.theses.fr/2012POIT1408.

Der volle Inhalt der Quelle
Annotation:
Introduction : 30 à 40% des personnes âgées de plus de 65 ans vivant à domicile connaissent chaque année une première chute. Les conséquences sont multiples tant physiques que psychologiques, voire sociales. Ces mécanismes et la prévention sont multifactoriels. L’évaluation du contrôle postural est nécessaire. Notre étude intégrant la posturographie à l’évaluation multifactorielle à domicile et une dimension multisensorielle aux programmes d’intervention, visera à démontrer l’efficacité de notre protocole de prévention. Matériels et méthode : Etude prospective Cas–Témoin, randomisée, 80 sujets âgés actifs, autonome, vivant à domicile et chuteurs. Critère principal de jugement : nombre de chute. Résultats : Initialement, nous observons aucune différence significative entre les deux groupes. A un an, nous constatons que le groupe Corrigé chute moins que le Témoins (19. 5% contre 90%). La qualité de vie et le contrôle postural se révèle également améliorer significativement. Discussion Conclusion : Les orientations multifactorielles nous ont permis de faire diminuer de manière significative le nombre de chute, de minimiser certains facteurs de risque, d’améliorer le contrôle postural, le tout entraînant une amélioration de la qualité de vie, grâce à l’individualisation de la stratégie de prévention à domicile. L’intervention sur le lieu de vie et le suivi régulier a permis une grande adhésion des personnes au protocole. L’analyse posturographique oriente de manière pertinente la stratégie rééducative individualisée, sensori-motrice en l’occurrence. Une étude multicentrique de son évaluation médico-économique permettrait de déterminer son efficacité en termes de rapport coût/bénéfice
Introduction: Falls have become a major public health problem in industrialized countries with an ageing population. It has been estimated that one third of the population over 65 years experience one or more falls per year. Fall consequences may be traumatic, psychological, economical and/or social. It is well-known the aetiology of falling is multifactorial and falls risk factors are quite numerous. Therefore in other to be effective in prevention it would be logical to develop intervention that would include a multifactorial approach. In this context, it seems also reasonable to include postural control assessment in such program. Aim: To develop a multidisciplinary/multisensory intervention program to prevent falls in elderly subjects. Design, subjects and methods: Randomized intervention with a multidisciplinary/multisensory approach including assessment of postural control vs a control group in 80 elderly subjects living at home. The follow was for twelve months. The main criterion of judgment was the fall. Other criteria were the postural control and the quality of life. Results: After one year, a significant decrease in the number of fallers was detected in the group that followed the intervention program when compared with the control group (from xx to 19. 5% vs xx to 90% of fallers, respectively). Postural control and quality of life also significantly increased in the former group when compared with the latter one. Discussion/Conclusion: Our approach was effective and our multidisciplinary/multisensory and individualized prevention program should now be investigated on a larger scale (e. G. Multicentric study) to determine its global efficiency including economical aspects
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Behmel, Sonja, und Sonja Behmel. „Intelligent decision support system to optimize, manage and plan water quality monitoring programs based on a participative approach“. Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29903.

Der volle Inhalt der Quelle
Annotation:
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2017-2018
Cette thèse s’intéresse au développement d’un système intelligent d’aide à la décision (SIAD) destiné à la conception, à la gestion et à l’optimisation des programmes de suivi de la qualité de l’eau (PSQE). Toute son originalité repose sur le fait qu’elle aborde la question dans une perspective holistique qui se traduit par le développement d’une approche participative dans le but de déterminer les besoins en connaissances sur la qualité et la quantité de l’eau sur lesquels se base le SIAD pour assister les gestionnaires de PSQE à toutes les étapes de la planification, de la gestion et de l’optimisation d’un PSQE. ...
Cette thèse s’intéresse au développement d’un système intelligent d’aide à la décision (SIAD) destiné à la conception, à la gestion et à l’optimisation des programmes de suivi de la qualité de l’eau (PSQE). Toute son originalité repose sur le fait qu’elle aborde la question dans une perspective holistique qui se traduit par le développement d’une approche participative dans le but de déterminer les besoins en connaissances sur la qualité et la quantité de l’eau sur lesquels se base le SIAD pour assister les gestionnaires de PSQE à toutes les étapes de la planification, de la gestion et de l’optimisation d’un PSQE. ...
This thesis focuses on the development of an intelligent decision-support system (IDSS) to plan, manage and optimize water quality monitoring programs (WQMPs). The main originality of this thesis is to have approached thequestion of planning, managing and optimizing WQMPs in a holistic manner. The holistic approach transcends into the developing of a participative approach to identify knowledge needs on water quality and quantity to feed an IDSS which assists WQMP managers in every aspect of planning, managing and optimizing WQMPs. ...
This thesis focuses on the development of an intelligent decision-support system (IDSS) to plan, manage and optimize water quality monitoring programs (WQMPs). The main originality of this thesis is to have approached thequestion of planning, managing and optimizing WQMPs in a holistic manner. The holistic approach transcends into the developing of a participative approach to identify knowledge needs on water quality and quantity to feed an IDSS which assists WQMP managers in every aspect of planning, managing and optimizing WQMPs. ...
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Sabadie, William. „CONTRIBUTION A LA MESURE DE LA QUALITE PERÇUE D'UN SERVICE PUBLIC“. Phd thesis, Université des Sciences Sociales - Toulouse I, 2001. http://tel.archives-ouvertes.fr/tel-00467913.

Der volle Inhalt der Quelle
Annotation:
Les réformes successives des services publics ont souligné la nécessité d'améliorer la qualité des services rendus et de mieux prendre en compte les attentes des usagers. Alors que la mesure de la qualité perçue occupe une place centrale dans la démarche d'engagement des services publics, il apparaît nécessaire de s'interroger sur les déterminants de la qualité perçue par les usagers et de développer un outil de mesure associé à ce concept. Les recherches menées dans le champ de l'étude du comportement du consommateur ont mis en exergue le rôle joué par les attentes des clients et les principales dimensions d'évaluation d'un service. Mais ces travaux ne rendent pas compte de la spécificité de la relation entre les usagers et les services publics. Cette recherche s'attache à proposer un cadre d'analyse de l'évaluation des services publics à partir du concept de justice en sciences sociales. Après une conceptualisation de la qualité perçue, le lien qualité perçue-satisfaction a été étudié dans le contexte de services publics redistributif, et industriel et commercial. Une telle approche, intégrant les spécificités du champ des services publics, a permis une meilleure compréhension de la qualité perçue et précise les conditions de la transposition des travaux issus de la sphère privé. Au final, cette recherche propose des instruments de mesure du jugement des usagers. Elle établit les déterminants de la qualité perçue par les usagers et ses conséquences sur leur satisfaction et leur engagement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Gomez, montalvo Jorge. „A Multimedia Ontology-Driven Architecture for Autonomic Quality of Service Management in Home Networks“. Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0017/document.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte actuel de l’Internet, un enjeu de recherche majeur est de permettre aux applications et à leurs utilisateurs de disposer de systèmes de communication offrant une qualité de service (QdS) optimale. Ceci en fonction des ressources machine et réseau disponibles, dont les capacités et les performances, hétérogènes et variables, ne sont pas connues à l’avance. Le provisionnement optimal de la QdS dans ces futurs systèmes de communication autonomes nécessite d’une part la caractérisation des services et des ressources de communication disponibles, et d’autre part la prise en compte des expressions des besoins et des préférences des différents acteurs du système (utilisateurs, fournisseurs des services, etc.). Le sujet de la thèse porte sur la définition d’un cadre sémantique de QdS basé sur les ontologies pour la caractérisation des ressources et des services de communication dans le but de fournir la meilleure QdS au regard des besoins et des préférences des utilisateurs. Ce cadre sera utilisé dans la définition des objectifs et des contraintes de QdS et dans l’élaboration de modèles de décision. L'ensemble sera utilisé pour la mise en œuvre de QdS dans les systèmes de communication autonomes situés dans un contexte de réseaux domestiques
In the current context of the Internet, a major research challenge is to enable applications and users to have their communications systems with an optimal quality of service (QoS). Indeed, QoS provisioning should take into account the available machine and network resources, which capacities and performances are heterogeneous, variable, and not known in advance. The optimal QoS provisioning for the future autonomous communication systems requires the characterization of available services and communication resources and also taking into account the expressions of needs and preferences of different actors in the system (users, service providers, etc.). The subject of this thesis deals with the definition of a QoS ontology-based semantic framework for the characterization of network resources and communication services in order to provide better QoS according to the needs and preferences of users. This framewor! k will be used in the definition of objectives and QoS constraints as well as in the development of decision models in order to provide QoS for autonomous communication systems located in the context of home networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Javed, Fahim. „Auditor Gender and Audit Quality in a Joint Audit Setting“. Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA2003.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de l'intérêt croissant des régulateurs, des législateurs et de la recherche universitaire pour l'identité des commissaires aux comptes, cette thèse explore l'environnement français de co-commissariat qui impose aux sociétés préparant des états financiers consolidés de nommer conjointement deux cabinets d'audit. Le collège des commissaires aux comptes peut inclure des auditeurs externes du même genre (deux hommes, deux femmes) ou de genre différent (un homme et une femme). Nous souhaitons examiner les facteurs liés à la demande et à l'offre des services d’audit externe apportés par des commissaires aux comptes de genre différent. Nous soutenons qu’un audit mené par un collège mixte de commissaires aux comptes est plus susceptible de promouvoir un suivi efficace et un comportement collaboratif en ce qui concerne le processus d'audit et peut influencer positivement la qualité de l'audit. Nous examinons l'effet de la composition du collège de commissaires aux comptes sur les honoraires d'audit et sur la qualité des résultats comptables. Nous utilisons des données sur les sociétés françaises cotées en bourse soumis au principe de co-commissariat et appliquons des procédures économétriques appropriées pour atténuer les problèmes d'endogénéité. Nos résultats empiriques montrent qu’un collège mixte de commissaires aux comptes bénéficie en moyenne d’une prime de 11% sur les honoraires d'audit et l’audit conduit par ce type de collège réduit davantage les incitations à la manipulation des résultats comptables. Nous examinons comment la diversité du genre des conseils d’administration des entreprises clientes affecte la composition du collège de commissaires aux comptes quant à sa mixité homme/femme. Nous montrons que les femmes administrateurs, occupant des postes clés de contrôle au sein du conseil d'administration (entant qu’indépendantes ou membres du comité d’audit) ont plus tendance à sélectionner un collège mixte de commissaires aux comptes et que ce phénomène est encore plus accentué après la promulgation de la loi sur les quotas en faveur des femmes dans les conseils d’administration
In the context of rapidly increasing interest of regulators, legislators and academic research in the identity of audit engagement partners, this dissertation explores French mandatory joint audit environment where firms preparing consolidated financial statements are jointly audited by two independent audit firms. The composition of joint audit partners may include same gender audit partners (two male, two female) or gender-diverse audit partners (one male and one female). This dissertation aims to examine whether gender-diverse audit partners provide higher audit quality compared with same gender audit partners. We argue that gender-diverse engagement partners are more likely to promote effective monitoring and collaborative behavior with regard to audit process and may positively influence audit quality. We investigate the issue of audit quality by examining input- and output-based measures, namely, audit fees and discretionary accruals. We use data on French listed firms and apply appropriate econometrical procedures to alleviate concerns about endogeneity issues. The empirical findings show that gender-diverse audit partners charge 11% audit fee premium and their clients exhibit lower levels of absolute and signed discretionary accruals. Collectively, we provide considerable evidence that gender-diverse audit partners produce higher-quality audits. In the aftermath of gender quota legislation, the current dissertation also examines whether gender profile of audit clients affect the selection/assignment of gender-diverse audit partners. Contrary to the gender similarity (homophily) argument—based on comprehensive analyses of client-partner gender alignments—we provide compelling evidence that that female directors appointed to monitoring positions on the board, compared to female inside directors, tend to select higher quality “auditor pairs” (i.e., gender-diverse engagement partners)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

GARDUNO, BARRERA David Rafael. „A differentiated quality of service oriented multimedia multicast protocol“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2005. http://tel.archives-ouvertes.fr/tel-00009582.

Der volle Inhalt der Quelle
Annotation:
Les systèmes de communication multimédia modernes aspirent à fournir de nouveaux services tels que des communications multipoints. Néanmoins, l'apparition de dispositifs multimédias très diversifiés et le nombre croissant de clients ont révélé de nouveaux besoins pour les mécanismes et les protocoles. Dans une communication multimédia, les flux présentent des contraintes différentes et la QdS requise pour chaque flux n'est pas la même. De plus, dans une communication multipoint, tous les utilisateurs ne peuvent pas ou ne sont pas capables de recevoir la même QdS ; cette contrainte implique que les nouveaux mécanismes de communication doivent prendre en compte les besoins des utilisateurs pour fournir un service adéquat à chaque utilisateur, surtout pour éviter le gaspillage des ressources réseau. Cette thèse propose une architecture multipoint à QdS différentiée appelée M-FPTP. Basée sur des proxies client/serveur, elle relie plusieurs LANs multipoints à travers des liens point-à-point partiellement fiables. Cette architecture fournit une QdS différente à chaque LAN dépendant des besoins des utilisateurs. Pour ce faire, nous proposons un modèle du réseau appelé Arbre Hiérarchisé (AH) qui représente en même temps les performances du réseau et les contraintes de QdS des utilisateurs. Nonobstant, l'application de méthodes standard pour la création d'arbres sur un AH peut conduire à des problèmes de surcharge du degré de sortie dans la source. Pour résoudre ce problème, nous proposons alors un nouvel algorithme appelé Arbre de Plus Courts Chemins à Degré de Sortie Limité. Le déploiement de ce service nécessite, pour gérer les utilisateurs et le déploiement correct des proxies, un nouveau protocole appelé Protocole Simple de Session pour QdS multipoint. L'ensemble des solutions proposées a été modélisé, vérifié, validé et testé en utilisant UML 2.0 et l'outil TAU G2.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Diallo, Thierno Mahamoudou. „Discovering data quality rules in a master data management context“. Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0067.

Der volle Inhalt der Quelle
Annotation:
Le manque de qualité des données continue d'avoir un impact considérable pour les entreprises. Ces problèmes, aggravés par la quantité de plus en plus croissante de données échangées, entrainent entre autres un surcoût financier et un rallongement des délais. De ce fait, trouver des techniques efficaces de correction des données est un sujet de plus en plus pertinent pour la communauté scientifique des bases de données. Par exemple, certaines classes de contraintes comme les Dépendances Fonctionnelles Conditionnelles (DFCs) ont été récemment introduites pour le nettoyage de données. Les méthodes de nettoyage basées sur les CFDs sont efficaces pour capturer les erreurs mais sont limitées pour les corriger . L’essor récent de la gestion de données de référence plus connu sous le sigle MDM (Master Data Management) a permis l'introduction d'une nouvelle classe de règle de qualité de données: les Règles d’Édition (RE) qui permettent d'identifier les attributs en erreur et de proposer les valeurs correctes correspondantes issues des données de référence. Ces derniers étant de très bonne qualité. Cependant, concevoir ces règles manuellement est un processus long et coûteux. Dans cette thèse nous développons des techniques pour découvrir de manière automatique les RE à partir des données source et des données de référence. Nous proposons une nouvelle sémantique des RE basée sur la satisfaction. Grace à cette nouvelle sémantique le problème de découverte des RE se révèle être une combinaison de la découverte des DFCs et de l'extraction des correspondances entre attributs source et attributs des données de référence. Nous abordons d'abord la découverte des DFCs, en particulier la classe des DFCs constantes très expressives pour la détection d'incohérence. Nous étendons des techniques conçues pour la découverte des traditionnelles dépendances fonctionnelles. Nous proposons ensuite une méthode basée sur les dépendances d'inclusion pour extraire les correspondances entre attributs source et attributs des données de référence avant de construire de manière automatique les RE. Enfin nous proposons quelques heuristiques d'application des ER pour le nettoyage de données. Les techniques ont été implémenté et évalué sur des données synthétiques et réelles montrant la faisabilité et la robustesse de nos propositions
Dirty data continues to be an important issue for companies. The datawarehouse institute [Eckerson, 2002], [Rockwell, 2012] stated poor data costs US businesses $611 billion dollars annually and erroneously priced data in retail databases costs US customers $2.5 billion each year. Data quality becomes more and more critical. The database community pays a particular attention to this subject where a variety of integrity constraints like Conditional Functional Dependencies (CFD) have been studied for data cleaning. Repair techniques based on these constraints are precise to catch inconsistencies but are limited on how to exactly correct data. Master data brings a new alternative for data cleaning with respect to it quality property. Thanks to the growing importance of Master Data Management (MDM), a new class of data quality rule known as Editing Rules (ER) tells how to fix errors, pointing which attributes are wrong and what values they should take. The intuition is to correct dirty data using high quality data from the master. However, finding data quality rules is an expensive process that involves intensive manual efforts. It remains unrealistic to rely on human designers. In this thesis, we develop pattern mining techniques for discovering ER from existing source relations with respect to master relations. In this set- ting, we propose a new semantics of ER taking advantage of both source and master data. Thanks to the semantics proposed in term of satisfaction, the discovery problem of ER turns out to be strongly related to the discovery of both CFD and one-to-one correspondences between sources and target attributes. We first attack the problem of discovering CFD. We concentrate our attention to the particular class of constant CFD known as very expressive to detect inconsistencies. We extend some well know concepts introduced for traditional Functional Dependencies to solve the discovery problem of CFD. Secondly, we propose a method based on INclusion Dependencies to extract one-to-one correspondences from source to master attributes before automatically building ER. Finally we propose some heuristics of applying ER to clean data. We have implemented and evaluated our techniques on both real life and synthetic databases. Experiments show both the feasibility, the scalability and the robustness of our proposal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

White-Koning, Mélanie. „The quality of life of children with cerebral palsy : analyses on a multi-centre european study“. Toulouse 3, 2007. http://www.theses.fr/2007TOU30057.

Der volle Inhalt der Quelle
Annotation:
Ce travail concerne la qualité de vie (QdV) d'enfants de 8-12 ans atteints de paralysie cérébrale (CP) vivant dans neuf régions européennes. Des régressions multiniveaux et des modèles à équations structurelles ont été utilisés. Nous avons montré que les enfants avec une déficience intellectuelle associée pouvaient évaluer eux-mêmes leur QdV grâce à des questionnaires adaptés et une évaluation préalable de leur capacité à les utiliser. Cependant, le recours à un tiers demeure nécessaire pour ceux qui ont des déficiences très sévères. La sévérité des déficiences n'était pas toujours associée à la QdV des enfants rapportée par les parents et les enfants les plus sévèrement atteints n'avaient pas toujours la pire QdV. La douleur de l'enfant et le stress parental sont associés à une augmentation du risque de mauvaise QdV. Les taux de désaccord entre parents et enfants et entre parents et professionnels concernant la QdV de l'enfant étaient élevés. Les parents avaient tendance à indiquer des scores de QdV plus bas que ceux donnés par les enfants eux-mêmes, mais aucune tendance claire n'est apparue pour les désaccords parents/professionnels. La concordance enfants/parents et parents/professionnels augmentait avec la sévérité des déficiences. Les parents avec des niveaux de stress élevés sous-évaluaient la QdV de leur enfant. De même, la présence de douleur rapportée par l'enfant ou les professionnels était associée avec une sous-évaluation de la QdV par les parents. Ces écarts représentent des différences de point de vue entre les répondants qui constituent des informations complémentaires importantes à prendre en compte dans toute évaluation de la QdV de l'enfant
This work examined the quality of life (QoL) of 8-12 year-old children with cerebral palsy (CP) living in nine regions in Europe. The methods used include multilevel regression and structural equation modelling. We found that self-report is possible in children with associated intellectual impairment providing appropriate questionnaires and standardised procedures are used to evaluate their competency to comprehend and use scales. However, proxy reports remain necessary for children with very severe impairment. Severity of impairment was not always associated with parent-reported child QoL and the most severely impaired children did not always have the worst QoL. Children experiencing pain and those whose parents reported high levels of stress were at higher risk of poor QoL. Children and parents frequently disagreed concerning child QoL, as did parents and professionals, with high rates of clinically meaningful disagreement over all domains of QoL. There was a tendency for parents to rate their children's QoL lower than the children's own ratings, whereas parent/professional differences were equally distributed in both directions. Both child/parent and professional/parent agreement increased with the severity of the children's impairment. Parents were more likely to rate their child's QoL as lower when they reported high stress levels. Also, when children or professionals reported severe child pain, their ratings of child QoL were significantly lower than the parents' ratings. These differences in reporting reflect each respondent's perspective on the situation based on their experience and constitute important complementary information concerning the child's well-being
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Meunier, Sébastien. „Analyse d'erreur a posteriori pour les couplages Hydro-Mécaniques et mise en œuvre dans Code Aster“. Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003314.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Ferchichi, Anis, Jean Pierre Bourey und Michel Bigand. „CONTRIBUTION À L'INTEGRATION DES PROCESSUS METIER : APPLICATION A LA MISE EN PLACE D'UN REFERENTIEL QUALITE MULTI-VUES“. Phd thesis, Ecole Centrale de Lille, 2008. http://tel.archives-ouvertes.fr/tel-00295306.

Der volle Inhalt der Quelle
Annotation:
Le croisement de concepts issus de la gestion des processus métier, des normes et standards qualité et de l'interopérabilité nous a permis de nous intéresser à l'organisation et l'intégration des processus métier d'entreprise, pour proposer une démarche de mise en place d'un référentiel qualité multi-vues.
Le but de notre travail est de montrer comment intégrer les processus métier d'une entreprise à l'aide d'un référentiel commun offrant différents points de vue. Cette démarche généralisable est appliquée à l'intégration de deux standards de qualité, ISO 9001v2000 et Capability Maturity Model Integration (CMMI), afin de générer un référentiel qualité multi\--vues permettant une certification relative aux deux normes. Ce référentiel prend en compte les chapitres imposés par ISO et les recommandations de CMMI. Dans le cadre de l'implémentation du référentiel, nous nous sommes intéressés à la définition d'une méthodologie d'estimation des délais et charges des projets informatiques afin de rationaliser ce processus critique pour l'entreprise. La mise en place de ce référentiel qualité s'accompagne de la définition d'une démarche assurant l'interopérabilité des processus définis avec ceux des clients et/ou partenaires.
Une méthodologie d'audit projet, un référentiel documentaire et un référentiel des compétences viennent compléter le travail déjà réalisé afin d'assurer l'implémentation et le respect du référentiel qualité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Pérennou, Loïc. „Virtual machine experience design : a predictive resource allocation approach for cloud infrastructures“. Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1246/document.

Der volle Inhalt der Quelle
Annotation:
L’un des principaux défis des fournisseurs de services cloud est d’offrir aux utilisateurs une performance acceptable, tout en minimisant les besoins en matériel et énergie. Dans cette thèse CIFRE menée avec Outscale, un fournisseur de cloud, nous visons à optimiser l’allocation des ressources en utilisant de nouvelles sources d’information. Nous caractérisons la charge de travail pour comprendre le stress résultant sur l’orchestrateur, et la compétition pour les ressources disponibles qui dégrade la qualité de service. Nous proposons un modèle pour prédire la durée d’exécution des VMs à partir de caractéristiques prédictives disponibles au démarrage. Enfin, nous évaluons la sensibilité aux erreurs d’un algorithme de placement des VMs de la littérature qui se base sur ces prédictions. Nous ne trouvons pas d’intérêt à coupler note système prédictif avec cet algorithme, mais nous proposons d’autres façons d’utiliser les prédictions pour optimiser le placement des VMs
One of the main challenges for cloud computing providers remains to offer trustable performance for all users, while maintaining an efficient use of hardware and energy resources. In the context of this CIFRE thesis lead with Outscale, apublic cloud provider, we perform an in-depth study aimed at making management algorithms use new sources of information. We characterize Outscale’s workload to understand the resulting stress for the orchestrator, and the contention for hardware resources. We propose models to predict the runtime of VMs based on features which are available when they start. We evaluate the sensitivity with respect to prediction error of a VM placement algorithm from the literature that requires such predictions. We do not find any advantage in coupling our prediction model and the selected algorithm, but we propose alternative ways to use predictions to optimize the placement of VMs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Pradinaud, Charlotte. „Considering water quality and characterizing water as a resource in Life Cycle Assessment“. Thesis, Montpellier, SupAgro, 2018. http://www.theses.fr/2018NSAM0012.

Der volle Inhalt der Quelle
Annotation:
Maintenir la qualité des ressources en eau est l'un des défis majeurs auxquels la société d’aujourd’hui doit faire face. Il est donc primordial que ce critère soit intégré correctement dans les méthodes d’analyse d’impacts environnementaux, tel que l’Analyse du Cycle de Vie (ACV). Cependant, l’estimation de la qualité de l’eau et la manière dont cette information est utilisée dans les modèles d’évaluation d’impacts soulève un certain nombre de challenges méthodologiques, d’où la problématique de recherche : « Comment considérer la qualité de l’eau dans l’évaluation des impacts de l’utilisation de l’eau en ACV, de l’inventaire aux Aires de Protection ? ». Ce travail de thèse propose dans un premier temps une étude approfondie du rôle et de la nécessité de l’information « qualité de l’eau » dans l’évaluation des impacts de plusieurs type d’utilisation d’eau (usage consommatif, dégradatif et amélioration de la qualité). Cette étude s’applique aux différentes chaines de causalité de manière mécanistique, jusqu’aux trois Aires de Protection (AoP) santé humaine, qualité des écosystèmes et ressources naturelles. Afin d’améliorer la compréhension et la considération des impacts de l’utilisation de l’eau sur l’AoP ressources naturelles, un cadre théorique consensuel élaboré en collaboration avec WULCA (le groupe Water Use in LCA, de l’UNEP-SETAC Life Cycle Initiative) est défini. Ce cadre fournit une base solide pour l’élaboration cohérente de méthodes d’analyse d’impacts, permettant d’évaluer la diminution irréversible de la disponibilité physique de l'eau douce et/ou de son degré d'utilisabilité pour les générations futures. La thèse se conclut par le développement d’un modèle de caractérisation d’impacts de la dégradation des ressources en eau causée par des émissions. Des facteurs de caractérisation sont calculés pour cinq métaux, au niveau midpoint. L’application de ces indicateurs permet d’améliorer l’interprétabilité des résultats concernant les défis futurs liés aux ressources en eau ainsi que les résultats des impacts sur la santé humaine liés aux problèmes de qualité d’eau
Maintaining the quality of water resources is one of the major challenges society faces today. It is therefore essential that this criterion be properly integrated into environmental impact assessment methods, such as Life Cycle Assessment (LCA). However, the estimation of water quality and how this information is used in impact assessment models raises a number of methodological challenges; hence, the general research question is “How to consider water quality in water use impact assessment in LCA, from inventory to Areas of Protection?” This thesis first provides a detailed study about the role and necessity of "water quality" information in assessing impacts of different types of water use (consumptive and degradative use, as well as quality improvement). This study applies to the different cause-effect chains in a mechanistic way, in view of the three Areas of Protection (AoP) human health, ecosystem quality and natural resources. In order to improve the understanding and consideration of the water use impacts on the AoP natural resources, a consensual framework, developed jointly with WULCA (Water Use in LCA group of the UNEP-SETAC Life Cycle Initiative), is presented. This framework provides a solid basis for the consistent development of impact characterization models to assess the irreversible reduction in physical availability of freshwater and its quality-based usability for future generations. The thesis ends with the development of a characterization model for water resource degradation impacts caused by emissions. Characterization factors are calculated for five metals at the midpoint level. The application of these indicators improves the interpretability of LCA results regarding future water resource challenges and water-quality related impacts on human health
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Renaud, Cyrille. „L'infarctus cérébral artériel du nouveau-né à terme : présentation clinique, facteurs de risques et déterminants évolutifs à partir d'une cohorte prospective multicentrique d'épidémiologie descriptive“. Phd thesis, Université Jean Monnet - Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00697759.

Der volle Inhalt der Quelle
Annotation:
Histoire et suivi d'une cohorte multicentrique de 100 nouveau-nés à terme ayant eu un infarctus cérébral artériel (cohorte AVCnn). L'homogénéité de la population, le nombre d'inclus, la somme des données collectées et leur comparaison à des groupes témoins puis désormais la durée du suivi font de la cohorte AVCnn un outil de travail unique dans la littérature. Les premiers résultats ont permis de définir un profil obstétrico-néonatal clinique et biologique à risque (objectif principal de l'étude). Inversement d'autres facteurs de risque suspectés (comme les dysgravidies ou les mutations des facteurs II et V de la coagulation) n'ont pu être confirmés, probablement du fait de la sélectivité des critères d'inclusion; les études antérieures ayant en effet inclus des enfants avec divers types d'AVC périnatals. La cause de l'accident n'a été établie (objectif secondaire) que pour une minorité d'enfants. Il semble exister plusieurs mécanismes pathologiques, dont le poids de naissance et le sexe seraient des biomarqueurs. Des facteurs pronostiques (objectif secondaire) de l'évolution motrice, accessibles dès les premiers jours de vie à l'lRM, ont également été déterminés alors que les symptômes n'apparaîtront que plusieurs mois après. Ceci permet d'envisager qu'une prise en charge précoce et ciblée sur ces nouveau-nés serait d'autant plus efficace que l'enfant n'a pas encore de symptômes. L'évaluation de la qualité de vie et de l'autonomie à l'âge de 3,5 ans est terminée. L'évaluation développementale (profil moteur, neuropsychologique, langagier, comportemental, épileptique et réussite scolaire) et de la réorganisation fonctionnelle cérébrale par IRM à 7 ans viennent de débuter.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Soares, Filipa. „La formation à l'autonomisation de l'enseignant de français en contexte lusophone : le cas du Cap-Vert“. Thesis, Paris 3, 2014. http://www.theses.fr/2014PA030071.

Der volle Inhalt der Quelle
Annotation:
La problématique de cette recherche porte sur l'autonomisation des enseignants de français en poste dans les institutions d'enseignement secondaire au Cap-Vert. L'auteure se base sur des enquêtes de terrain auprès d'enseignants de français et d'acteurs sociaux concernés par l'enseignement-apprentissage du français ; sa recherche-action s'articule autour de quatre chapitres où le premier expose ses choix méthodologiques et son positionnement interne et externe comme enseignante-chercheur.Le second chapitre a pour finalité de présenter le contexte général de la recherche en mettant en avant l'importance du concept d'autonomie pour comprendre l'archipel créolophone et lusophone du Cap-Vert, dans une perspective historique et sociolinguistique. Le troisième chapitre fournit des éléments sur l'évolution générale du dispositif d'enseignement-apprentissage et sur la formation des enseignants de français, et repère trois types de formateurs que l'auteure regroupe sous le nom de "mentors d'autonomie" parce que leurs fonctions officielles visent à développer l'autonomie. Ce sont : le tuteur et le coordinateur (lycée) ; le superviseur (université publique du Cap-Vert). L'analyse détaillée des pratiques des enseignants de français et des mentors d'autonomie permet de dégager des indicateurs d'autonomie ou de non autonomie au niveau secondaire. Le quatrième et dernier chapitre dégage, à partir des deux chapitres précédents, des suggestions qui pourraient contribuer à remédier aux problèmes observés afin d'améliorer la qualité de l'enseignement du français dans le contexte capverdien
This research intends to study the empowering process of the French teachers at the secondary level in the creole and portuguese-speaking archipelago of Cape Verde.The author investigates the field among teachers of French and social actors implicated in the French language teaching and learning. Her action-research is built upon four chapters among which the first chapter exposes her methodological options and her inner and outer position as a professor-researcher.The second chapter aims to present the general context of the research, pointing out how important the concept of autonomy is to understand the arquipelago of Cape Verde, in a historical and sociolinguistical perspect.The third chapter gives elements of information about the global evolution of the education system and of the training of the French teachers, and detects three trainers the author called « autonomy mentors » because their official functions would be to develop the autonomy : they are the advisory tutor and the coordinator (high school level) and the supervisor (public university of Cape Verde). Useful indicators of autonomy or non autonomy at the secondary level have been drowned from a detailed analysis of the teaching practices of the French teachers and of the « Mentors ».In the fourth and last chapter the conclusions of the two previous chapters are used to make suggestions which could help to solve the problems observed, in order to improve the quality of the secondary level French language teaching and learning in the Cape-Verdean context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Feuillade, Vincent. „Etude de l'influence de la formulation de l'ensimage des fibres de verre sur la qualité de surface des composites SMC de type "classe A"“. Montpellier 2, 2003. http://www.theses.fr/2003MON20103.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Avocanh, Jean-Thierry Stephen. „Resources allocation in high mobility scenarios of LTE networks“. Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD052/document.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur l’allocation de ressources radio dans les réseaux LTE à forte mobilité. En particulier, il s’agit de concevoir des stratégies d’allocation de ressources capables d’améliorer la qualité de service des flux multimédia dans un contexte de forte mobilité des terminaux. Pour atteindre ces objectifs, l’étude a été menée en deux étapes. Dans un premier temps les travaux se sont déroulés dans un contexte où l’aspect forte mobilité n’a pas été pris en compte. Cela a permis de bien maitriser tous les aspects liés à l’allocation de ressources dans le LTE tout en proposant de nouvelles méthodes meilleures que celles existantes. Une fois cette tâche accomplie, l’aspect forte mobilité a été ajouté au problème et des stratégies adaptées à ce contexte ont été proposées. Néanmoins, dû aux différences entre les liens montants et descendants, l’étude a été menée dans les deux directions. Comme première contribution, nous avons conçu deux stratégies pour améliorer l’allocation de ressources sur la liaison descendante dans un contexte où la forte mobilité n’a pas été prise en compte. La première méthode est un mécanisme qui améliore cette allocation en particulier dans les scénarios d’overbooking en faisant un compromis entre l’équité, le débit global du système et les exigences de qualité de service des applications. La seconde stratégie permet non seulement de satisfaire aux contraintes de délais mais également de garantir un très faible taux de perte de paquets aux services de type multimédias. Les performances des systèmes proposés ont été évaluées par des simulations en les comparant à d’autres mécanismes dans la littérature. Les analyses ont démontré leur efficacité et révélé qu’elles obtenaient les meilleures performances. Notre deuxième contribution a permis d’améliorer l’allocation de ressources toujours dans un contexte de non prise en compte de la forte mobilité, mais cette fois ci sur le lien montant et pour des flux de type vidéo téléphonie. Nous avons conçu un nouveau protocole qui réduit de façon considérable les retards causés par l’allocation dynamique des ressources. L’idée consiste à allouer des ressources à ces trafics en utilisant une stratégie semi-persistante associée à un processus de pré-allocation. Les performances de notre méthode ont été évaluées par simulations et les résultats ont montré qu’elle fournissait le meilleur support en qualité de service. La dernière partie de nos travaux s’est intéressée au problème d’allocation de ressources dans les scénarios de fortes mobilités des terminaux. Dans cette partie, nous avons élaboré deux stratégies efficaces convenant aux scénarios véhiculaires. La première méthode est une technique permettant de maintenir le niveau de qualité de service nécessaire pour le bon fonctionnement des applications vidéo des utilisateurs ayant les vitesses les plus élevées. Elle consiste à déterminer en fonction des différentes vitesses des utilisateurs, le taux minimum de rapports CQI à envoyer à la station de base. Quant à la seconde stratégie, c’est un procédé d’ordonnancement opportuniste qui améliore la qualité de service des applications vidéo des utilisateurs ayant les vitesses les plus élevées. Avec cette stratégie, ces utilisateurs obtiennent une plus grande priorité et acquièrent ainsi beaucoup plus de ressources
Abstract Our thesis focuses on issues related to resources allocation in LTE Networks. In particular the purpose of this study is to design efficient scheduling algorithms to improve the QoS of real time flows in a context of high mobility of the users. To reach this goal, the study has been carried out in two steps. At first, in order to have an expert knowledge of the key facets of LTE scheduling, we conducted the study in a context where the high mobility aspect of the node was not taken into account. This helped not only to critically analyze the literature but also to propose new schemes to improve QoS of real time applications. After that, the high mobility parameter has been added and innovative methods dealing with this context have been designed. Nevertheless due to the existing differences between the downlink and the uplink, the issue was tackled in each of the aforementioned directions. We firstly addressed the problem of improving the scheduling of downlink communications in a context where the high mobility was not taken into account. Two major methods have been designed for this purpose. The first one is an innovative scheme which improves resources assignment in overbooking scenarios by doing a trade-off between fairness, overall system through put and QoS requirements. The second one is an enhanced scheduling scheme which provides strict delay bounds and guarantees very low packet loss rate to multimedia flows. The performance of the proposed schemes have been evaluated by simulations and compared to other schemes in the literature. The analyses demonstrated their effectiveness and showed that they outperformed the existing ones. The second contribution concerned the problem of improving the scheduling of uplink communications in a context where the high mobility was not taken into account. We designed a novel scheduling protocol which improves resources allocation for videotelephony flows and reduces the delay caused by dynamic scheduling. It consists in scheduling such traffics using a semi-persistent strategy associated with a provisioning process. The performance of our proposed method have been evaluated by simulations and results demonstrated its effectiveness by showing that it improved videotelephony flows performance and provided the best QoS support compared to the dynamic scheduling.The last contribution addressed the problem of resources allocation in high mobility scenarios. In this part, the high mobility aspect was taken into account for designing suitable schemes for vehicular scenarios. We proposed in this way two efficient strategies. The first one is a technique which maintains the required level of QoS for supporting video users at high velocities. It consists in identifying depending on the UEs velocity, the minimum CQI reports rate in order to maintain the required QoS. The second proposed strategy is an opportunistic method which improves the performance of high speed video users. With this strategy, more priority are given to the UEs having the highest velocity. Simulations results demonstrated its effectiveness and showed that it improved the QoS support of video users having the highest velocity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Noyer, Mégane. „Développement d'indicateurs microbiens de multipollutions en Méditerranée : vers un outil d'évaluation de la qualité des eaux douces Particle-attached riverine bacteriome shifts in a pollutant-resistant and pathogenic community during a mediterranean extreme storm event Evolution of the particle-attached riverine archaeome compared to the bacteriome as a result of multipollution following a mediterranean extreme event“. Thesis, Perpignan, 2020. http://www.theses.fr/2020PERP0027.

Der volle Inhalt der Quelle
Annotation:
Les écosystèmes d’eau douce sont très vulnérables face aux perturbations anthropiques. Ils peuvent en effet subir de multiples pollutions via entre autres le lessivage des sols des bassins versants mais aussi la remobilisation des sédiments des lits des rivières et des réseaux d’assainissement, phénomènes accentués lors des épisodes pluvieux, particulièrement intenses et fréquents dans les régions au climat méditerranéen. Lors d’un épisode méditerranéen étudié précédemment, il a été démontré que des déversements de mélanges de polluants se produisaient, coïncidant avec le pic de débit et du débordement des déversoirs d’orage (DDO) qui l’ont précédée. Au cours de cette thèse, nous avons pu vérifier que ces multipollutions sont récurrentes, se produisant à chaque DDO et pic de débit lors de deux autres crues. Nous avons donc émis l’hypothèse que les communautés microbiennes fluviatiles, qui constituent le seul compartiment biologique capable de dégrader les polluants, pourraient être largement impactées par ces multipollutions récurrentes en méditerranée. Cette thèse visait ainsi à déterminer l'évolution du microbiome fluviatile au cours d’événements pluvieux extrêmes, et ce, à travers la modélisation statistique combinant des données de séquençage haut débit à une large panoplie de paramètres environnementaux. Les résultats obtenus démontrent une relation significative entre les multipollutions et l’apport de microorganismes liés à la matière fécale, aux milieux urbains et résistants aux polluants et/ou pathogènes. Ces microorganismes exogènes pourraient affecter fortement les communautés résidentes. Compte tenu de la réaction rapide du microbiome fluviatile face aux multipollutions, nous avons également mis en évidence des microorganismes clés de stress multiple, qui pourraient servir comme nouveaux biomarqueurs à incorporer dans un outil de détection de multipollutions pour le suivi de la qualité des eaux
Freshwater ecosystems are highly vulnerable to anthropogenic disturbances. Indeed, they can be subject to multiple forms of pollution via, among other things, the leaching of soil from catchment basins but also the remobilisation of sediment from river beds and sewerage networks, phenomena that are accentuated during rainy episodes, which are particularly intense and frequent in regions with a Mediterranean climate. In a Mediterranean event studied previously, it was shown that discharges of pollutant mixtures occurred, coinciding with the water discharge peak and combined sewer overflows (CSO) that preceded it. During this thesis, we were able to verify that these multipollutions are recurrent, occurring at each CSO and water discharge peak along two other floods. We hypothesised that fluvial microbial communities, which constitute the only biological compartment able to degraded pollutants, could be largely impacted by these recurrent multipollutions in Mediterranean. This thesis aimed to determine the impact of pollutant mixtures on the evolution of the fluvial microbiome during extreme rainfall events via statistical modelling coupling high throughput sequencing data to a wide range of environmental parameters. Results showed a significant relationship between multipollutions events at CSOs and water discharge peak and the appearance of microorganisms linked to faecal matter, urban environments and resistant to pollutants and/or pathogens, which could strongly affect riverine resident communities. Given the rapid response of the fluvial microbiome to multi-pollutants, we were able to identify key multi-stress microorganisms, that could be used as new biomarkers to be incorporated into a multi-pollutant detection tool for water quality monitoring
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Bres, Stéphane. „Contributions a la quantification des criteres de transparence et d'anisotropie par une approche globale : application au controle de qualite de materiaux composites“. Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0070.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de dégager les éléments d'une méthodologie permettant de quantifier les critères globaux de transparence (d'un matériau) et d'anisotropie (d'un ensemble de formes); tout cela est réalisé, de façon automatique, dans le cadre des images à niveaux de gris. Pour appréhender de tels critères, la vision humaine est très performante car elle analyse, très naturellement et de façon simultanée une image à différents niveaux, allant d'une inspection locale des détails à une perception plus globale (ce qui fait sa supériorité dans les cas qui nous concernent). L'approche adoptée ici est donc volontairement globale, pour reproduire au mieux les processus de l'analyse humaine. Des applications pratiques de la quantification de ces critères globaux sont proposées, en particulier sur les matériaux composites pour lesquels on réalise ainsi une avancée en contrôle qualité. Le premier chapitre présente la discrimination de formes par une approche globale en n'utilisant que des paramètres intrinsèques à ces formes ou en normalisant celles-ci au préalable. Le deuxième chapitre présente une méthode originale de quantification de transparence, caractère encore peu étudié. Cette méthode est basée sur l'évaluation de la "lisibilité" d'une mire de test cachée par le matériau à qualifier par corrélation. Enfin, le troisième chapitre présente une étude de la caractéristique Anisotropie. Les aspects locaux et globaux de ce caractère sont abordés. Une nouvelle méthode, applicable sur des images à niveaux de gris et capable d'inspecter l'ensemble des directions de l'image, y est présentée. Elle permet de produire des résultats chiffrés d'anisotropie, très en accord avec les impressions de l’œil humain, ainsi que des roses d'orientations qui visualisent les directions privilégiées
The aim of this thesis is to highlight basis toward a methodology able to quantity the global features of transparency (of a material) and anisotropy (of a set of patterns). This work is realised on grey levels images, in an automatic way. The human vision is very performant in catching such features because it analyses, very naturally and simultaneously, a picture at diff~rent levels, from a local inspection of details to a more global perception. This is why human vision beats computer used here is voluntarily global, to reproduce at best the human analysis processes. Practical applications of the quantification of these global features are proposed, especially on composite materials, where it yields a reliable improvement in control quality. The first chapter presents the patterns discrimination by a global approach, using either only intrinsic parameters of these patterns or a previous step of normalization. The second chapter presents a novel method of the quantification of transparency, which is of importance be cause this feature has not been extensively studied in the past. This method has been applied to composite materials study. The main point of this method is a correlation based on lisibility evaluation of a test pattern, supposedly hidden by the material to be qualified. At last, the third chapter presents a study of the anisotropy feature. The local and global aspects of this feature are considered. A new method is presented which can be applied on grey levels images and can inspect ali the image directions. It results in numerical information about anisotropy and roses of orientations which clearly show the principal directions. Our results show similarities when compared to human visual behaviour
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Alili, Hiba. „Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake“. Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Der volle Inhalt der Quelle
Annotation:
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Brouard, Vanessa. „Impacts de l’œstradiol et du bisphénol A, isolés ou en mélange, dans le déroulement de la spermatogenèse et la qualité des gamètes chez les mammifères“. Caen, 2016. http://www.theses.fr/2016CAEN2009.

Der volle Inhalt der Quelle
Annotation:
La spermatogenèse est un processus complexe, il est clairement établi que les oestrogènes sont impliqués dans sa régulation et qu’ils peuvent agir sur le spermatozoïde qui exprime les récepteurs aux oestrogènes ESR1, ESR2 et GPER. Depuis quelques décennies, l’infertilité chez l’homme augmente et cela pourrait être dû à une exposition aux perturbateurs endocriniens, tels que les xénoestrogènes. Le bisphénol A (BPA) est un composé chimique utilisé dans la fabrication de plastiques et de par sa structure proche de l’17β-oestradiol (E2), il possède une activité oestrogénique. Ainsi, nous avons étudié les effets de l’E2 et/ou du BPA in vivo à de faibles doses (20μg/kg/jour d’E2 et 50μg/kg/jour de BPA) sur la spermatogenèse chez le rat prépubère (15 à 30jpp) et adulte (60 à 75jpp) et sur le spermatozoïde humain in vitro. Chez le rat, les résultats obtenus démontrent un effet différentiel du BPA et de l’E2 principalement chez les animaux prépubères où la mise en place de la spermatogenèse est activée après une exposition au BPA et inhibée après une exposition à l’E2. Les effets observées chez les rats prépubères exposés de 15 à 30jpp ne sont pas retrouvés chez les rats adultes exposés à la même période. Une diminution de l’expression des gènes codants pour des protéines de la barrière hémato-testiculaire est aussi retrouvée chez les rats prépubères exposés de 15 à 30jpp et chez les rats adultes exposés de 60 à 75jpp. L’étude sur le spermatozoïde humain a débuté par la mise en évidence et la quantification des différents récepteurs aux oestrogènes et l’expression de chaque récepteur par spermatozoïde augmente dans les échantillons de moins bonne qualité, tout comme la concentration séminale en oestradiol. Les effets de l’E2 et du BPA ont ensuite été analysés sur la mobilité, la capacitation puis l’apoptose des spermatozoïdes. Nous avons observé une augmentation de la mobilité après incubation en présence d’oestradiol (10-9 et 10-7M). Les effets de l’E2 et BPA sur la capacitation sont dépendants de la concentration, les concentrations 10-5 et 10-9M ont un effet inhibiteur alors que la concentration 10-7M d’E2 a un effet stimulateur. Enfin, l’E2 et le BPA semblent favoriser l’apoptose du spermatozoïde humain. Ainsi, notre étude démontre les effets différentiels de l’E2 et du BPA sur la mise en place de la spermatogenèse chez le rat prépubère et sur la mobilité du spermatozoïde humain et des effets similaires sur la BHT chez le rat prépubère et adulte et sur la capacitation et l’apoptose du spermatozoïde humain, suggérant que le BPA pourrait activer des récepteurs et des voies de signalisations différents de l’E2
Spermatogenesis is a complex process leading to the production of spermatozoa from spermatogonia and it is well know that estrogens are involved in its regulation. Moreover, they can act on the sperm which expresses estrogen receptors ESR1, ESR2 and GPER. For several years, infertility in men has been increasing due to the exposure of endocrine disruptor chemical, such as xenoestrogens. Bisphenol A (BPA) is a chemical compound with estrogenic activity mainly used in plastics’ manufacture. Indeed, we studied the effects of estradiol (E2) and / or BPA at low doses (20μg / kg / day for the E2 and 50μg / kg / day for BPA) on spermatogenesis in prepubertal (15 to 30dpp) and adult rats (60 to 75dpp) in vivo and in human sperm in vitro. In rats, the results have demonstrated a differential effect of BPA and E2 specifically in prepubertal animals where the establishment of spermatogenesis is enhanced after BPA exposure and inhibited after E2 exposure. The effects observed in prepubertal rats exposed to 15 at 30dpp were not found in 75dpp rats exposed at the same period. A decrease in the expression of genes encoding blood-testis barrier proteins was also found in prepubertal rats exposed at 15 to 30dpp and in adult rats exposed at 60 to 75dpp. The study on human sperm begun with identification and quantification of estrogen receptors and the expression of each receptor was increased in low quality sperm samples, as well as estradiol seminal concentration. The effects of E2 and BPA were analyzed on sperm motility, apoptosis and capacitation. We observed an increase in motility only after incubation with estradiol (10-9 and 10-7M). E2 and BPA effects on sperm capacitation are dose dependant; at 10-5 and 10-9M both treatments decreased capacitated sperm percentage, while it was increased at 10-7M E2. Finally, E2 and BPA appear to promote apoptosis in human sperm. Thus, our study has shown the differential effects of E2 and BPA on spermatogenesis’ establishment in prepubertal rats and on human sperm motility, and similar effects on the BHT in prepubertal and adult rats and on the human sperm capacitation and apoptosis, suggesting that BPA may activate different receptors and signaling pathways than E2
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Matos, Inês. „Les effets à moyen terme d'une intervention préventive précoce sur la qualité de l'attachement des enfants : suivi à 48 mois de la cohorte CAPEDP-A“. Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB192.

Der volle Inhalt der Quelle
Annotation:
Contexte : le travail réalisé dans cette thèse s'inscrit dans le projet de prévention précoce CAPEDP qui comprenait une intervention longitudinale adressée à une population de grande vulnérabilité psychosociale. Nos objectifs étaient de tester l'efficacité des interventions à domicile sur la qualité de l'attachement chez l'enfant et de comparer longitudinalement les comportements et les représentations d'attachement avec un groupe témoin qui a reçu les soins usuels. Méthodologie : notre travail est divisé en trois études et temps de mesure : 12, 18 et 48 mois de l'enfant. Les comportements d'attachement ont été évalués à travers la Situation Étrange à 12 mois et l'Attachment Q-sort à 18 mois. A 48 mois, nous avons évalué les représentations d'attachement avec l'Attachment Story Completion Task. Résultats : à 12 mois, les différences en termes de sécurité ne sont pas significatives mais nous remarquons plus d'enfants sécures dans le groupe intervention. A 18 mois, le groupe intervention a des scores de sécurité plus élevés. Nous remarquons aussi une amélioration significative entre 12 et 18 en termes de sécurité dans le groupe intervention. A 48 mois, nous retrouvons une amélioration au niveau des facteurs sociodémographiques et un effet de genre, les filles du groupe intervention étaient significativement plus sécures que celles du groupe contrôle. Discussion : l'intervention CAPEDP a eu un effet positif en augmentant la sécurité de l'attachement entre 12 et 18 mois. Les filles du groupe intervention semblent avoir profité plus de l'intervention CAPEDP. Plusieurs limites de l'étude sont discutées ainsi que les ouvertures de recherche, notamment une intervention conjointe psychologue-assistante sociale pour atténuer l'impact des facteurs de risque sur l'efficacité de l'intervention psychologique
Context: this PhD research fits into the early prevention CAPEDP project: a home-visiting intervention addressing a high-risk population. Our goals were to test the efficiency of the intervention on infant attachment and to longitudinally compare attachment behaviours and representations with a control group that received only usual care. Method: our work is divided into 3 studies with different times and measures: 12, 18 et 48 months. Attachment behaviour was assessed with the Strange Situation at 12 months and with the Attachment Q-sort at 18 months. Attachment representations were assessed with the Attachment Story Completion Task at 48 months. Results: at 12 months, there are more secure infants in the intervention group although these differences are not statistically significant. At 18 months, the intervention group has higher scores of security. Results also show an improvement in terms of security between 12 and 18 months for the intervention group. At 48 months, results point out an improvement in socio-demographic factors and a gender difference: girls from the intervention group showed significantly higher attachment security than the control group. Discussion: the CAPEDP intervention had a positive effect in enhancing attachment security between 12 and 18 months. Girls seem to have profited the most from our intervention. The limitations and future directions are discussed, particularly the interest of a joint intervention between psychologists and social workers to diminish the socio-economic risk impact on the psychological intervention
Contexto: este trabalho de tese insere-se no projeto de prevenção precoce CAPDP constituído por uma intervenção longitudinal dirigida a uma população com elevado risco psicossocial. Os objetivos eram testar a eficácia da intervenção a domicílio sobre a qualidade da vinculação na criança e comparar longitudinalmente os comportamentos e as representações de vinculação com um grupo controlo que beneficiou apenas do sistema de cuidados já existente. Metodologia: o nosso trabalho é dividido em três estudos ou tempos: 12, 18 e 48 meses da criança. Os comportamentos de vinculação foram avaliados com a Situação Estranha aos 12 meses e com o Attachment Q-sort aos 18. Aos 48 foram avaliadas as representações de vinculação com o Attachement Story Completion Task. Resultados: aos 12 meses, as diferenças em termos de segurança da vinculação não são significativas, mas constatámos a presença de mais crianças seguras no grupo intervenção. Aos 18 meses, o grupo intervenção verifica scores mais elevados de segurança. De notar também uma melhoria significativa entre os 12 e os 18 meses em termos de segurança da vinculação no grupo intervenção. Aos 48 meses, encontrámos melhorias a nível sociodemográfico e um efeito de género, sendo que as meninas do grupo intervenção apresentam scores de segurança das representações mais elevados comparativamente às do grupo controlo. Discussão: a intervenção CAPEDP teve um efeito positivo aumentando a segurança da vinculação entre 12 e 18 meses. As meninas do grupo intervenção parecem ter beneficiado mais da nossa intervenção. Os limites do estudo são discutidos assim como as aberturas para futuras investigações, nomeadamente para uma intervenção conjunta entre psicólogos e assistentes sociais para diminuir o impacto negativo dos factores de risco sobre a intervenção psicológica
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Pérennou, Loïc. „Virtual machine experience design : a predictive resource allocation approach for cloud infrastructures“. Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1246.

Der volle Inhalt der Quelle
Annotation:
L’un des principaux défis des fournisseurs de services cloud est d’offrir aux utilisateurs une performance acceptable, tout en minimisant les besoins en matériel et énergie. Dans cette thèse CIFRE menée avec Outscale, un fournisseur de cloud, nous visons à optimiser l’allocation des ressources en utilisant de nouvelles sources d’information. Nous caractérisons la charge de travail pour comprendre le stress résultant sur l’orchestrateur, et la compétition pour les ressources disponibles qui dégrade la qualité de service. Nous proposons un modèle pour prédire la durée d’exécution des VMs à partir de caractéristiques prédictives disponibles au démarrage. Enfin, nous évaluons la sensibilité aux erreurs d’un algorithme de placement des VMs de la littérature qui se base sur ces prédictions. Nous ne trouvons pas d’intérêt à coupler note système prédictif avec cet algorithme, mais nous proposons d’autres façons d’utiliser les prédictions pour optimiser le placement des VMs
One of the main challenges for cloud computing providers remains to offer trustable performance for all users, while maintaining an efficient use of hardware and energy resources. In the context of this CIFRE thesis lead with Outscale, apublic cloud provider, we perform an in-depth study aimed at making management algorithms use new sources of information. We characterize Outscale’s workload to understand the resulting stress for the orchestrator, and the contention for hardware resources. We propose models to predict the runtime of VMs based on features which are available when they start. We evaluate the sensitivity with respect to prediction error of a VM placement algorithm from the literature that requires such predictions. We do not find any advantage in coupling our prediction model and the selected algorithm, but we propose alternative ways to use predictions to optimize the placement of VMs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie