Dissertations / Theses on the topic 'Qualité des données et bruit'

To see the other types of publications on this topic, follow the link: Qualité des données et bruit.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Qualité des données et bruit.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Azé, Jérôme. "Extraction de Connaissances à partir de Données Numériques et Textuelles." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00011196.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail réalisé dans le cadre de cette thèse concerne l'extraction de connaissances dans des données transactionnelles.
L'analyse de telles données est souvent contrainte par la définition d'un support minimal utilisé pour filtrer les connaissances non intéressantes.
Les experts des données ont souvent des difficultés pour déterminer ce support.
Nous avons proposé une méthode permettant de ne pas fixer un support minimal et fondée sur l'utilisation de mesures de qualité.
Nous nous sommes focalisés sur l'extraction de connaissances de la forme "règles d'association".
Ces règles doivent vérifier un ou plusieurs critères de qualité pour être considérées comme intéressantes et proposées à l'expert.
Nous avons proposé deux mesures de qualité combinant différents critères et permettant d'extraire des règles intéressantes.

Nous avons ainsi pu proposer un algorithme permettant d'extraire ces règles sans utiliser la contrainte du support minimal.
Le comportement de notre algorithme a été étudié en présence de données bruitées et nous avons pu mettre en évidence la difficulté d'extraire automatiquement des connaissances fiables à partir de données bruitées.
Une des solutions que nous avons proposée consiste à évaluer la résistance au bruit de chaque règle et d'en informer l'expert lors de l'analyse et de la validation des connaissances obtenues.

Enfin, une étude sur des données réelles a été effectuée dans le cadre d'un processus de fouille de textes.
Les connaissances recherchées dans ces textes sont des règles d'association entre des concepts définis par l'expert et propres au domaine étudié.
Nous avons proposé un outil permettant d'extraire les connaissances et d'assister l'expert lors de la validation de celles-ci.
Les différents résultats obtenus montrent qu'il est possible d'obtenir des connaissances intéressantes à partir de données textuelles en minimisant la sollicitation de l'expert dans la phase d'extraction des règles d'association.
2

Al, Jurdi Wissam. "Towards next generation recommender systems through generic data quality." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de recommandation sont essentiels pour filtrer les informations en ligne et fournir un contenu personnalisé, réduisant ainsi l’effort nécessaire pour trouver des informations pertinentes. Ils jouent un rôle crucial dans divers domaines, dont le commerce électronique, en aidant les clients à trouver des produits pertinents, améliorant l’expérience utilisateur et augmentant les ventes. Un aspect significatif de ces systèmes est le concept d’inattendu, qui implique la découverte d’éléments nouveaux et surprenants. Cependant, il est complexe et subjectif, nécessitant une compréhension approfondie des recommandations fortuites pour sa mesure et son optimisation. Le bruit naturel, une variation imprévisible des données, peut influencer la sérendipité dans les systèmes de recommandation. Il peut introduire de la diversité et de l’inattendu dans les recommandations, conduisant à des surprises agréables. Cependant, il peut également réduire la pertinence de la recommandation. Par conséquent, il est crucial de concevoir des systèmes qui équilibrent le bruit naturel et la sérendipité. Cette thèse souligne le rôle de la sérendipité dans l’amélioration des systèmes de recommandation et la prévention des bulles de filtre. Elle propose des techniques conscientes de la sérendipité pour gérer le bruit, identifie les défauts de l’algorithme, suggère une méthode d’évaluation centrée sur l’utilisateur, et propose une architecture basée sur la communauté pour une performance améliorée
Recommender systems are essential for filtering online information and delivering personalized content, thereby reducing the effort users need to find relevant information. They can be content-based, collaborative, or hybrid, each with a unique recommendation approach. These systems are crucial in various fields, including e-commerce, where they help customers find pertinent products, enhancing user experience and increasing sales. A significant aspect of these systems is the concept of unexpectedness, which involves discovering new and surprising items. This feature, while improving user engagement and experience, is complex and subjective, requiring a deep understanding of serendipitous recommendations for its measurement and optimization. Natural noise, an unpredictable data variation, can influence serendipity in recommender systems. It can introduce diversity and unexpectedness in recommendations, leading to pleasant surprises. However, it can also reduce recommendation relevance, causing user frustration. Therefore, it is crucial to design systems that balance natural noise and serendipity. Inconsistent user information due to natural noise can negatively impact recommender systems, leading to lower-quality recommendations. Current evaluation methods often overlook critical user-oriented factors, making noise detection a challenge. To provide powerful recommendations, it’s important to consider diverse user profiles, eliminate noise in datasets, and effectively present users with relevant content from vast data catalogs. This thesis emphasizes the role of serendipity in enhancing recommender systems and preventing filter bubbles. It proposes serendipity-aware techniques to manage noise, identifies algorithm flaws, suggests a user-centric evaluation method, and proposes a community-based architecture for improved performance. It highlights the need for a system that balances serendipity and considers natural noise and other performance factors. The objectives, experiments, and tests aim to refine recommender systems and offer a versatile assessment approach
3

Tiouchichine, Elodie. "Performance du calorimètre à argon liquide et recherche du boson de Higgs dans son canal de désintégration H -->ZZ*->4l avec l'expérience ATLAS auprès du LHC." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4058/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de thèse effectués au sein de la collaboration ATLAS et présentés dans ce manuscrit se sont déroulés dans le contexte de la découverte d'une nouvelle particule dans la recherche du boson de Higgs du Modèle Standard au LHC. Après une introduction du cadre théorique, le LHC et le détecteur ATLAS sont présentés ainsi que leurs performances durant cette première phase de prise de données comprenant les données acquises en 2011 et 2012. Une attention particulière est portée aux calorimètres à argon liquide et au traitement de la qualité des données enregistrées par ce système. Des études de validation des données collectées durant des conditions non nominales de la haute tension des calorimètres à argon liquide ont abouti à la récupération de 2% des données collectées, les rendant ainsi disponibles pour l'analyse de physique. Ceci a un impact direct sur le canal H -> ZZ* -> 4 l où le nombre d'événements attendus est faible. Dans le but d'optimiser l'acceptance du canal de désintégration en quatre électrons, des nouveaux algorithmes de reconstruction des électrons ont été introduits en 2012, et la mesure de son efficacité est présentée. Le gain d'efficacité allant jusqu'à 7% pour les électrons de basse énergie transverse (15 ZZ* -> 4 l qui est présentée pour les données 2012. Les méthodes d'estimation du bruit de fond réductible des canaux contenant des électrons dans l'état final ont été au centre de l'attention durant la période qui a suivi la découverte et sont particulièrement décrites. Les mesures de propriétés du boson découvert, basées sur les données de 2011 et 2012 sont présentées
The work presented in this thesis within the ATLAS collaboration was performed in the context of the discovery of a new particle at the LHC in the search for the Standard Model Higgs boson. My contribution to the Higgs boson search is focused in the H -> ZZ* -> 4 l channel at different level, from the data taking to the physics analysis. After a theoretical introduction, the LHC and the ATLAS detector are presented as well as their performance during the 2011 and 2012 runs. A particular consideration is given to the liquid argon calorimeters and to the data quality assesment of this system. The validation of the data recorded during non-nominal high voltage conditions is presented. This study allowed to recover 2% of the data collected available for physics analyses. This has a direct impact on the H -> ZZ* -> 4 l channel were the number of signal events expected is very low. In order to optimize the acceptance of the four electrons decay channel, novel electron reconstruction algorithms were introducted in 2012. The measurement of their efficiency is presented. The efficiency gain reaching 7% for low transverse energy electrons (15 ZZ* -> 4 l analysis presented using the data recorded in 2012. The reducible background estimation methods in the channels containing electrons in the final state that were of primary importance after the discovery are detailed. Finally, the measurement of the new boson properties are presented based on the 2011 and the 2012 recorded data
4

Choquet, Rémy. "Partage de données biomédicales : modèles, sémantique et qualité." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00824931.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le volume de données disponibles dans les systèmes d'information est de plus en plus important et pour autant, nous n'avons jamais autant essayer d'interconnecter cette information pour en extraire de la connaissance sans véritable succès généralisable. L'origine du problème est multiple. Tout d'abord, l'information est représentée dans des structures différentes. Ensuite, les vocabulaires utilisés pour exprimer les données sont hétérogènes. Enfin, la qualité de l'information est souvent trop mauvaise pour utiliser une information et en déduire des connaissances. Ce diagnostic est d'autant plus vrai dans le cadre du partage d'information dans le domaine biomédical où il reste difficile de s'entendre sur des représentations (structures et vocabulaires) pivots d'un domaine de la médecine, et donc où il apparaît difficile de résoudre le problème du partage d'information par l'imposition de standard de codage et de structuration de l'information. Plus récemment, l'introduction de la sémantique dans des processus de partage d'information, nous offre la possibilité de mettre en oeuvre des représentations pivots indépendantes de la structuration ou du nommage d'une donnée. Cette thèse s'inscrit dans cette problématique de partage de données biomédicales dans le cadre de l'évaluation de l'évolution de la résistance des bactéries aux antibiotiques en Europe. L'hypothèse générale de travail que nous proposons est la suivante: comment partager de l'information biomédicale de manière non ambigüe, en temps réel, et à la demande en Europe. Cette hypothèse pose diverses problématiques que nous abordons dans ce mémoire. La problématique de la qualité des données. Celle de la représentation des données à travers leur structure, leur vocabulaire et de leur sémantique. Nous aborderons aussi les problèmes d'alignement de données aux ontologies de domaine et de la fédération de données aidée d'ontologie. Enfin, nous présenterons un système d'interopérabilité sémantique basé sur des règles qui aborde le problème d'alignement sémantique de systèmes hétérogènes appliqué à notre domaine. Nous discuterons finalement de l'apport de la sémantique pour le partage d'information et des limites des outils et méthodes actuels.
5

Ben, salem Aïcha. "Qualité contextuelle des données : détection et nettoyage guidés par la sémantique des données." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les applications complexes telles que l'extraction de connaissances, la fouille de données, le E-learning ou les applications web utilisent des données hétérogènes et distribuées. Dans ce contexte, la qualité de toute décision dépend de la qualité des données utilisées. En effet, avec l'absence de données riches, précises et fiables, une organisation peut prendre potentiellement de mauvaises décisions. L'objectif de cette thèse consiste à assister l'utilisateur dans sa démarche qualité. Il s'agit de mieux extraire, mélanger, interpréter et réutiliser les données. Pour cela, il faut rattacher aux données leurs sens sémantiques, leurs types, leurs contraintes et leurs commentaires. La première partie s'intéresse à la reconnaissance sémantique du schéma d'une source de données. Elle permet d'extraire la sémantique des données à partir de toutes les informations disponibles, incluant les données et les métadonnées. Elle consiste, d'une part, à classifier les données en leur attribuant une catégorie et éventuellement une sous-catégorie, et d'autre part, à établir des relations inter colonnes et de découvrir éventuellement la sémantique de la source de données manipulée. Ces liens inter colonnes une fois détectés offrent une meilleure compréhension de la source ainsi que des alternatives de correction des données. En effet, cette approche permet de détecter de manière automatique un grand nombre d'anomalies syntaxiques et sémantiques. La deuxième partie consiste à nettoyer les données en utilisant les rapports d'anomalies fournis par la première partie. Elle permet une correction intra colonne (homogénéisation des données), inter colonnes (dépendances sémantique) et inter lignes (élimination des doublons et similaire). Tout au long de ce processus, des recommandations ainsi que des analyses sont proposées à l'utilisateur
Nowadays, complex applications such as knowledge extraction, data mining, e-learning or web applications use heterogeneous and distributed data. The quality of any decision depends on the quality of the used data. The absence of rich, accurate and reliable data can potentially lead an organization to make bad decisions.The subject covered in this thesis aims at assisting the user in its quality ap-proach. The goal is to better extract, mix, interpret and reuse data. For this, the data must be related to its semantic meaning, data types, constraints and comments.The first part deals with the semantic schema recognition of a data source. This enables the extraction of data semantics from all the available information, inculding the data and the metadata. Firstly, it consists of categorizing the data by assigning it to a category and possibly a sub-category, and secondly, of establishing relations between columns and possibly discovering the semantics of the manipulated data source. These links detected between columns offer a better understanding of the source and the alternatives for correcting data. This approach allows automatic detection of a large number of syntactic and semantic anomalies.The second part is the data cleansing using the reports on anomalies returned by the first part. It allows corrections to be made within a column itself (data homogeni-zation), between columns (semantic dependencies), and between lines (eliminating duplicates and similar data). Throughout all this process, recommendations and analyses are provided to the user
6

Weber-Baghdiguian, Lexane. "Santé, genre et qualité de l'emploi : une analyse sur données microéconomiques." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse étudie l'influence du travail sur la qualité de l'emploi et la qualité de vie des individus. Cette dernière est approximée par la perception que les individus ont de leur santé. Le premier chapitre étudie les conséquences de la perte d'emploi liée à la fermeture d'un établissement sur l'ensemble des dimensions de la qualité de l'emploi retrouvé. Nous montrons que ce choc induit une dégradation, y compris sur le long terme, des salaires, de l'insécurité de l'emploi perçue, de la qualité de l'environnement de travail et de la satisfaction des travailleurs. Les deux derniers chapitres tentent de comprendre les déterminants des différences de santé perçue selon le genre. Dans le deuxième chapitre, nous analysons le rôle de la santé mentale dans les écarts de santé déclarée selon le genre. Le troisième chapitre étudie l'influence des normes sociales au travail, sur la santé perçue. Nous montrons que les femmes comme les hommes travaillant dans des collectifs de travail féminins déclarent davantage de problèmes de santé spécifiques que celles et ceux travaillant dans des collectifs masculins. Ce travail souligne donc, d'une part, l'effet négatif de la perte d'emploi sur la qualité de l'emploi retrouvé et la satisfaction à long terme et, d'autre part, l'importance du mal-être et des normes sociales au travail pour comprendre les différences de santé perçue entre les genres
This thesis studies the influence of work on job and life quality, the latter being considered through the perception that individuals have of their own health. The first chapter focuses on the long-term effects of job losses due to plant closure on job quality. We show that job loss negatively affects wages, perceived job insecurity, the quality of the working environment and job satisfaction, including in the long run. The two last chapters investigate gender differences in self-reported health. The second chapter provides descriptive evidence on the relationships between self-assessed health, gender and mental health problems, i.e. depression and/or affective pains. Finally, in the last chapter, we study the influence of social norms as proxied by the gender structure of the workplace environment, on gender differences in self-reported health. We show that both women and men working in female-dominated environments report more specific health problems than those who work in male-dominated environments. The overall findings of this thesis are twofold. First, losing a job has a negative impact on several dimensions of job quality and satisfaction in the long run. Secondly, mental diseases and social norms at work are important to understand gender-related differences in health perceptions
7

Puricelli, Alain. "Réingénierie et Contrôle Qualité des Données en vue d'une Migration Technologique." Lyon, INSA, 2000. http://theses.insa-lyon.fr/publication/2000ISAL0092/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour but de développer une méthodologie de traitement de la cohérence logique dans un Système d'Information Géographique (SIG), afin de fiabiliser la migration des données dans le cas d'une migration technologique (changement de système et de structuration). Cette méthodologie est ensuite appliquée à un cas concret de SIG, celui de la Communauté Urbaine de Lyon (le "SUR"). La cohérence logique est l'un des critères qualité communément admis au sein de la communauté des producteurs et utilisateurs de données géographiques, au même titre que la précision géographique ou l'exhaustivité par exemple. Après une présentation des éléments de qualité et des métadonnées dans les SIG, un état des lieux est donné concernant les différents travaux de normalisation dans ces domaines. Les différentes normes en cours d'élaboration (du CEN, de l'ISO et du FGDC entre autres) sont analysées et commentées. Une méthodologie de détection et de correction d'erreurs géométriques et topologiques est ensuite détaillée, dans le cadre de bases de données géographiques vecteur existantes. Trois types d'erreurs sont identifiés, respectivement les erreurs structurelles, géométriques et sémantiques. Pour chacune de ces familles d'anomalies, des méthodes de détection basées sur des théories établies (contraintes d'intégrité, topologie, géométrie algorithmique) sont proposées ainsi que des pistes pour la correction. Cette approche est ensuite mise en application dans le cadre des bases de données du SUR. Afin de compléter cette application, un mécanisme particulier a été développé pour traiter également les erreurs de tessellations, non prises en compte par la méthodologie (qui utilise les relations topologiques binaires). Enfin pour assurer la cohérence des corrections, une méthode a été mise en place pour propager les corrections dans le voisinage des objets, aussi bien à l'intérieur d'une couche de données qu'entre couches ou entre bases de données différentes du SUR
The purpose of this thesis is to develop a methodology of treatment for logical consistency checking in a Geographical Information System (GIS), in order to ensure the migration of the data in the case of a technological change of system and re-structuring. This methodology is then applied to a real GIS installed in the Urban Community of Lyon (the SUR). Logical consistency is one of the quality criteria that are commonly allowed within the community of producers and users of geographical data, as well as precision or exhaustiveness for instance. After a presentation of the elements of quality and metadata in GIS, a state of the art is given concerning various works of standardization within these fields. The different standards under development (those of the CEN, the ISO and the FGDC among others) are analyzed and commented. A methodology of detection and correction of geometrical and topological errors is then detailed, within the framework of existing geographical vector databases. Three types of errors are identified, namely structural, geometrical and semantic errors. For each one of these families of errors, methods of detection based on established theories (integrity constraints, topology and computational geometry) are proposed as well ideas for the correction are detailed. This approach is then implemented within the context of the SUR databases. To complete this application, a specific mechanism was developed to deal also with the errors in tessellations, which were not taken into account by the methodology (which uses binary topological relations). Finally to ensure the consistency of the corrections, a method was set up to spread the corrections in the neighborhood of the objects under corrections. Those objects can be located inside a single layer of data as well as between different layers or different databases of the system
8

Defréville, Boris. "Caractérisation de la qualité sonore de l'environnement urbain : une approche physique et perceptive basée sur l'identification des sources sonores." Cergy-Pontoise, 2005. http://biblioweb.u-cergy.fr/theses/05CERG0275.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le bruit dans nos villes est perçu comme une question de qualité de vie. Il est généralement évalué par la mesure de son niveau sonore. Si cette mesure est représentative d'environnements bruyants caractérisés par des flots continus de véhicules, elle s'avère insuffisante pour caractériser la "couleur" d'une ambiance sonore où différentes sources coexistent. C'est ainsi que la présente étude se propose d'examiner la qualité d'ambiances sonores urbaines du point de vue de leur composition, c'est à dire des sources sonores occurentes, la finalité étant la mise au point d'une méthode d'évaluation automatique d'un environnement sonore urbain. La première partie met en évidence le fait que celles-ci ne sont pas toutes perçues de la même manière et qu'en conséquence leurs évaluations métrologiques doivent être adaptées. Ce travail permet de proposer un indicateur lié au désagrément sonore ; en fonction du lieu, cet indicateur utilise la force sonore de la séquence, mais il prend toujours en compte les caractéristiques des différents sources émergentes. La deuxième partie de l'étude propose deux méthodes pour la mesure de cet indicateur à travers l'identification des sources. Ces outils représentent, in fine, une aide à la gestion d'un environnement sonore de quartier
Noise in cities is perceived as a question of quality of life. It is generally evaluated by the measurement of his sound level. If this measure is representative of noisy environments which are characterised by continuous flow of vehicles, it is insufficient to characterise the "colour" of a urban soundscape where different sources coexist. The first part reveals that sound sources are not perceived the same manner and their metrological evaluation should be adapted consequently. This present work proposes an indicator linked to the unpleasantness of sound. Depending on the place it describes, this indicator sometimes uses the loudness of the sequence but always takes account characteristics of emergent sound of sources. The second part of the study proposes two methods for the automatic calculation of this indicator thanks to the identification of sound sources. This tool represents, in fine, a help to the management of an urban soundscape
9

Feno, Daniel Rajaonasy. "Mesures de qualité des règles d'association : normalisation et caractérisation des bases." Phd thesis, Université de la Réunion, 2007. http://tel.archives-ouvertes.fr/tel-00462506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les règles d'association révèlent des régularités non triviales et potentiellement utiles pour l'aide a la décision, dans les bases de données. Leur validité est évaluée par le biais de mesures de qualités dont les plus utilisées sont le support et la confiance. Pour une base de données transactionnelles d'un supermarché, elles sont du type "90% des clients ayant acheté du vin et du fromage ont également acheté du pain, sachant que 75% des clients ont acheté ces articles". Dans ce travail, nous spécifions une classe de mesures de qualité normalisées en ce sens qu'elles reflètent les situations de référence comme l'incompatibilité, la dépendance négative, l'indépendance, la dépendance positive, et l'implication logique entre la prémisse et le conséquent. Nous caractérisons les mesures de qualité normalisables, donnons les formules de normalisation et montrons que la plupart de celles qui sont normalisables ont la même normalisée, à savoir la mesure de qualité Mgk introduite dans Guillaume (2000). De plus, nous caractérisons des bases pour les règles positives et les règles négatives valides au sens de Mgk, et proposons des algorithmes de génération de ces bases
10

Bazin, Cyril. "Tatouage de données géographiques et généralisation aux données devant préserver des contraintes." Caen, 2010. http://www.theses.fr/2010CAEN2006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le tatouage est un procédé fondamental pour la protection de la propriété intellectuelle. Il consiste à insérer une marque dans un document numérique en le modifiant légèrement. C'est la présence de cette marque qui permet au propriétaire légitime d'un document numérique de faire preuve de l'antériorité de ses droits. L'originalité de notre travail est double. D'une part nous utilisons une approche locale pour garantir à priori que la qualité des documents est préservée lors de l'insertion de la marque. D'autre part nous proposons un schéma de tatouage générique qui s'abstrait du type de documents à tatouer. La thèse s'articule en trois parties. Nous commencons par introduire les concepts de base du tatouage de données contraintes ainsi que l'état de l'art du tatouage de données géographiques. Nous présentons ensuite notre schéma de tatouage pour les données géographiques vectorielles qui sont souvent utilisées dans les systèmes d'informations géographiques. Ce schéma aveugle permet de tatouer un document tout en en préservant certaines qualités topologiques et métriques. La marque est robuste; elle résiste entre autres aux transformations géométriques et au découpage du document. Nous proposons une implémentation efficace que nous validons par de multiples expérimentations. Dans la dernière partie de la thèse, nous généralisons ce schéma aux données devant préserver des contraintes. Le schéma générique que nous obtenons facilitera la conception de schémas de tatouage pour de nouveaux type de données. Nous donnons notamment un exemple d'application du schéma générique pour les bases de données relationnelles. Afin de montrer qu'il est possible de travailler directement sur ce schéma, nous proposons deux protocoles de détection de la marque applicables directement sur toute implémentation du schéma générique
Digital watermaking is a fundamental process for intellectual property protection. It consists in inserting a mark into a digital document by slightly modifications. The presence of this mark allows the owner of a document to prove the priority of his rights. The originality of our work is twofold. In one hand, we use a local approach to ensure a priori that the quality of constrained documents is preserved during the watermark insertion. On the other hand, we propose a generic watermarking scheme. The manuscript is divided in three parts. Firstly, we introduce the basic concepts of digital watermarking for constrainted data and the state of the art of geographical data watermarking. Secondly, we present our watermarking scheme for digital vectorial maps often used in geographic information systems. This scheme preserves some topological and metric qualities of the document. The watermark is robust, it is resilient against geometric transformations and cropping. We give an efficient implementation that is validated by many experiments. Finally, we propose a generalization of the scheme for constrainted data. This generic scheme will facilitate the design of watermarking schemes for new data type. We give a particular example of application of a generic schema for relational databases. In order to prove that it is possible to work directly on the generic scheme, we propose two detection protocols straightly applicable on any implementation of generic scheme
11

Paolino, Pierdomenico. "Bruit thermique et dissipation d'un microlevier." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00423692.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En microscopie à force atomique (AFM), l'étude des échantillons est réalisée à l'aide d'une pointe montée sur un microlevier. Le coeur de la technique est la mesure de la force d'interaction pointe-surface, directement proportionnelle à la déflexion du levier. Plus généralement, la compréhension profonde des propriétés mécaniques des microstructures joue un rôle significatif dans le développement des microsystèmes électromécaniques (MEMS), ou encore de capteurs chimiques ou biologiques miniatures.

Au delà du dispositif traditionnel de mesure de déflexion angulaire, nous avons conçu et réalisé un AFM avec une détection interférométrique différentielle (entre la base encastrée et l'extrémité libre du levier). La résolution ultime est de 10^-14 m/Hz^1/2, la mesure est de plus intrinsèquement calibrée, indifférente aux dérives thermiques lentes et sans limitation de la plage d'amplitude de la déflexion.

Grâce à notre dispositif, nous mesurons le bruit thermique le long du levier. Une reconstruction de la forme spatiale des quatre premiers modes propres en flexion révèle un excellent accord avec le modèle de poutre de Euler-Bernoulli. Un ajustement simultané sur les quatre résonances thermiquement excitées est réalisé à l'aide d'un seul paramètre libre : la raideur du levier, qui est ainsi mesurée avec une grande précision et robustesse.

Les fluctuations thermiques de déflexion à basse fréquence démontrent qu'un modèle d'oscillateur harmonique avec dissipation visqueuse n'est plus pertinent hors résonance. De plus, on observe des différences substantielles entre les leviers avec et sans revêtement métallique. Pour ces derniers, l'approche hydrodynamique de Sader rend compte fidèlement du comportement des fluctuations en dessous de la résonance dans l'air. La présence du revêtement introduit une deuxième source de dissipation : la viscoélasticité. Elle se manifeste comme un bruit en 1/f à basse fréquence. L'utilisation du Théorème Fluctuation-Dissipation (TFD) et des relations de Kramers-Kronig permettent une caractérisation complète de la réponse du levier à l'aide des spectres de fluctuations. Une estimation quantitative de la viscoélasticité et de sa dépendance en fréquence est notamment obtenue.
12

Ben, Saad Myriam. "Qualité des archives web : modélisation et optimisation." Paris 6, 2011. http://www.theses.fr/2011PA066446.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd'hui, le Web est devenu le moyen le plus important pour véhiculer des informations qui peuvent avoir une grande valeur culturelle, scientifique, économique, etc. Archiver son contenu ou du moins une partie est devenu crucial afin de préserver certaines informations utiles pour les générations futures de chercheurs, écrivains, historiens, etc. Cependant, les archivistes doivent faire face à un grand défi qui consiste à préserver la qualité des données collectées pour garantir la plus grande fidélité du Web. C'est dans cette perspective d'améliorer la qualité des archives que nos travaux de thèse s'inscrivent. Nous nous intéressons aux deux mesures de qualité: la complétude temporelle et la cohérence temporelle qui sont très pertinentes pour évaluer les archives Web. Nous proposons une nouvelle approche d'archivage qui exploite le rendu visuel des pages pour y détecter les changements de la même manière que les utilisateurs les perçoivent. Nous proposons ensuite une méthode pour évaluer l'importance des changements visuels ainsi détectés. Par la suite, nous modélisons l'importance des changements sous forme de patterns, par le modèle PPaC (Pattern of Pages Changes). Contrairement aux modèles déjà existants basés sur un taux moyen de changements, PPaC permet de mieux prédire les moments les plus opportuns durant lesquels des modifications importantes sont censées survenir dans les pages. En se basant sur PPaC, nous proposons différentes stratégies de crawling qui visent à améliorer la complétude et/ou la cohérence temporelle. Nos différentes stratégies ont été implémentées puis expérimentées aussi bien sur des pages simulées que sur de vraies pages Web. Les résultats obtenus démontrent que le modèle PPaC basé sur l'importance des changements est un instrument utile pour améliorer considérablement la qualité des archives.
13

Spill, Yannick. "Développement de méthodes d'échantillonnage et traitement bayésien de données continues : nouvelle méthode d'échange de répliques et modélisation de données SAXS." Paris 7, 2013. http://www.theses.fr/2013PA077237.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La détermination de la structure de protéines et d'autres complexes macromoléculaires est de plus en plus difficile. Les cas les plus simples ont étés déterminés, et la recherche actuelle en bioinformatique se focalise sur des cibles de plus en plus compliquées. Pour déterminer la structure de ces complexes, il est devenu nécessaire de combiner différentes expériences et d'utiliser des données de moins bonne qualité. En d'autres termes, la détermination de structures utilise de plus en plus de données éparses, bruitées et incohérentes. Par conséquent, il est devenu essentiel de pouvoir quantifier l'exactitude d'une structure, une fois déterminée. Cette quantification est parfaitement accomplie par inférence statistique. Dans cette thèse, je développe un nouvel algorithme d'échantillonnage, l'Échange de Répliques Convectif, qui perme de trouver des structures probables de façon plus robuste. Je propose également un traitement statistique de données continues, comme celles obtenues par diffusion des rayons X aux petits angles
The determination of protein structures and other macromolecular complexes is becoming more and more difficult. The simplest cases have already been determined, and today's research in structural bioinformatics focuses on ever more challenging targets. To successfully determine the structure of these complexes, it has become necessary to combine several kinds of experiments and to relax the quality standards during acquisition. In other words, structure determination makes an increasing use of sparse, noisy and inconsistent data. It is therefore becoming essential to quantify the accuracy of a determined structure. This quantification is superbly achieved by statistical inference. In this thesis, I develop a new sampling algorithm, Convective Replica-Exchange, sought to find probable structures more robustly. I also propose e proper statistical treatment for continuous data, such as Small-Angle X-Ray Scattering data
14

Maddi, Abdelghani. "La quantification de la recherche scientifique et ses enjeux : bases de données, indicateurs et cartographie des données bibliométriques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La question de la productivité et de la « qualité » de la recherche scientifique est l’une des problématiques centrales du monde économique et social du 21e siècle. Car la recherche scientifique, source d’innovations dans tous les domaines, est considérée comme la clé du développement économique et de compétitivité. La science doit également contribuer aux défis sociétaux définis dans les programmes cadre européens (H2020) par exemple, tels que la santé, la démographie et le bien-être. Afin de rationaliser les dépenses publiques de recherche et d’innovation ou encore orienter les stratégies d’investissement des bailleurs de fonds, plusieurs indicateurs ce sont développés pour mesurer les performances des entités de recherche. Désormais, nul ne peut échapper à l’évaluation, à commencer par les articles de recherche, en passant par les chercheurs, jusqu’aux institutions et aux pays (Pansu, 2013, Gingras, 2016). Faute de manque de recul méthodologique, les indicateurs quantitatifs sont parfois mal utilisés en négligeant tous les aspects liés à leur méthode de calcul/normalisation, ce qu’ils représentent ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Cette situation risque d’avoir des conséquences désastreuses sur le plan scientifique et social. Notre travail envisage d’examiner les outils de la bibliométrie évaluative (indicateurs et bases de données) afin de mesurer les enjeux liés à l’évaluation quantitative des performances scientifiques. Nous montrons au travers de cette recherche que les indicateurs quantitatifs, ne peuvent jamais être utilisés à eux seuls pour mesurer la qualité des entités de recherche étant donnée les disparités des résultats selon les périmètres d’analyse, les problèmes ex-ante liés aux caractéristiques individuelles des chercheurs qui affectent directement les indicateurs quantitatifs, ou encore les insuffisances des bases de données à partir desquelles ils sont calculés. Pour une évaluation responsable, il est impératif d’accompagner les mesures quantitatives par une appréciation qualitative des pairs. Par ailleurs, nous avons également examiné l’efficacité des mesures quantitatives pour des fins de compréhension de l’évolution des sciences et la formation des communautés scientifiques. Notre analyse appliquée sur un corpus de publications traitant la thématique de la crise économique nous a permis de montrer à la fois les auteurs et courants de pensée dominants, ainsi que l’évolution temporelle des termes utilisés dans cette thématique
The issue of productivity and the "quality" of scientific research is one of the central issues of the 21st century in the economic and social world. Scientific research, source of innovation in all fields, is considered the key to economic development and competitiveness. Science must also contribute to the societal challenges defined in the Framework Programmes for Research and Technological Development (H2020) for example, such as health, demography and well-being. In order to rationalize public spending on research and innovation or to guide the investment strategies of funders, several indicators are developed to measure the performance of research entities. Now, no one can escape evaluation, starting with research articles, researchers, institutions and countries (Pansu, 2013, Gingras, 2016). For lack of methodological comprehension, quantitative indicators are sometimes misused by neglecting the aspects related to their method of calculation / normalization, what they represent or the inadequacies of the databases from which they are calculated. This situation may have disastrous scientific and social consequences. Our work plans to examine the tools of evaluative bibliometrics (indicators and databases) in order to measure the issues related to the quantitative evaluation of scientific performances. We show through this research that the quantitative indicators, can never be used alone to measure the quality of the research entities given the disparities of the results according to the analysis perimeters, the ex-ante problems related to the individual characteristics of researchers who directly affect the quantitative indicators, or the shortcomings of the databases from which they are calculated. For a responsible evaluation, it is imperative to accompany the quantitative measures by a qualitative assessment of the peers. In addition, we also examined the effectiveness of quantitative measures for the purpose of understanding the evolution of science and the formation of scientific communities. Our analysis, applied to a corpus of publications dealing the economic crisis, allowed us to show the dominant authors and currents of thought, as well as the temporal evolution of the terms used in this thematic
15

Le, conte des floris Robin. "Effet des biais cognitifs et de l'environnement sur la qualité des données et des informations." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLM004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Du point de vue du philosophe Friedrich Nietzsche, il n’y a pas de réalité qui existe en soi, pas de fait brut, pas de réalité absolue : tout ce que nous définissons comme étant la réalité n’est, en fait, que le résultat de processus d’interprétation qui nous sont propres. Or, les données stockées sur les systèmes d’information ne sont souvent rien d’autre que la représentation codée de déclarations émises par des êtres humains, relevant donc intrinsèquement de l’interprétation humaine et étant par conséquent affectées par les mêmes biais et limites qui caractérisent la psyché humaine. Cette thèse propose un nouveau cadre conceptuel, le modèle "Data Binding and Reification" (DBR), qui décrit le processus d’interprétation des données, puis de réification de l’information, en utilisant une nouvelle approche qui place les mécanismes de perception humaine au cœur de celui-ci. En mobilisant les sciences cognitives et comportementales, cette approche permet d’identifier dans quelle mesure l’intervention de l’homme et la structure de l’environnement auquel il est soumis conditionnent l’apparition de biais cognitifs affectant ces processus. Les résultats expérimentaux valident partiellement ce modèle en identifiant les caractéristiques de l’environnement affectant, dans un contexte organisationnel, le processus de collecte de données et la qualité des informations produites. Ces travaux ouvrent de nombreuses perspectives, telles que l’élaboration d’une architecture de choix au sens de l’économiste Richard Thaler, pouvant améliorer le processus même de collecte de données en modifiant l’expérience des utilisateurs du système d’information
From the perspective of philosopher Friedrich Nietzsche, there is no reality that exists in itself, no raw fact, no absolute reality: everything that we define as reality is, in fact, only the result of interpretation processes that are unique to us. Mo-reover, the data stored in information systems is often nothing more than the coded representation of statements made by human beings, thereby inherently involving human interpretation and consequently being affected by the same biases and limitations that characterize the human psyche. This thesis introduces a new conceptual framework, the "Data binding and reification" (DBR) model, that describes the process of data interpretation, and then the reification of information, using a new approach that places human-perception mechanisms at the heart of this process. By mobilizing cognitive and beha-vioral sciences, this approach allows us to identify to what extent human intervention and the structure of the environment to which one is subjected condition the emergence of cognitive biases affecting these processes. Experimental results partially validate this model by identifying the characteristics of the environment that affect, in an organizational context, the data-collection process and the quality of the information produced. This work opens up numerous perspectives, such as the development of a choice architecture in the sense of the economist Richard Thaler, which could improve the very process of data collection by modifying the experience of users of the information system
16

Boydens, Isabelle. "Evaluer et améliorer la qualité de l'information: herméneutique des bases de données administratives." Doctoral thesis, Universite Libre de Bruxelles, 1998. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Legros, Diégo. "Innovation, formation, qualité et performances des entreprises : Une étude économétrique sur données d'entreprises." Paris 2, 2005. http://www.theses.fr/2005PA020106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les économistes, notamment l'OCDE s'accordent aujourd'hui à reconnaître que les économies développées contemporaines sont fondées sur le savoir. On entend par là que le savoir, sous toutes ses formes, joue un rôle croissant et névralgique dans les processus économiques comme la concurrence, la répartition et la croissance. Les nations, les entreprises ayant un degré de connaissances supérieur (technologies) sont plus compétitives. Ce rôle stratégique explique pourquoi les entreprises et les particuliers investissent de plus en plus dans toutes les formes de connaissances. Pour affronter les difficultés inhérentes à la mesure de la connaissance, les économistes se sont intéressés à la recherche et développement. La raison principale à ceci tient à la difficulté de mesurer les connaissances. Les activités de R&D présentent l'avantage d'être bien circonscrites et facilement mesurables. La littérature économique envisage la performance des bases de connaissances de deux manières. Un premier axe étudie l'impact des connaissances sur la production des entreprises. La connaissance se joint ainsi aux deux facteurs de production traditionnels de la firme, à savoir le capital et le travail. Un second axe de recherche s'intéresse plus précisément à l'activité d'innovation de la firme en examinant les déterminants de l'investissement en R&D des entreprises. Le mérite de Griliches (1979) a été de réunir les deux approches dans une analyse explicitement orientée sur la mesure d'un capital de R&D participant positivement à la croissance des firmes. Ses travaux se concentrent sur l'analyse du lien entre la productivité des entreprises et le stock de connaissances de la firme à l'aide notamment d'une fonction de production Cobb-Douglas. A la suite de ses travaux, l'effet de la R&D des entreprises a été analysé dans de nombreuses études empiriques, conduites à différents niveaux d'agrégation (établissements, entreprises, niveau sectoriel, niveau national). Toutes ces études concluent à l'importance de la R&D, l'élasticité estimée de la production par rapport à la R&D des entreprises allant de 10% a 30%. Implicitement cette littérature considère que les dépenses de R&D sont la seule source de connaissances des firmes. Dans ce contexte, une part considérable des activités économiques et des agents n'est pas considérée comme partie prenante de l'économie de la connaissance. Pourtant la connaissance produite par les entreprises ne provient pas uniquement des activités formelles de R&D. Toutes les activités de production et d'usage des biens et services peuvent être l'occasion d'un apprentissage et donc de production de connaissances. Nous ne doutons pas de la contribution significative des dépenses de R&D à la construction conjointe d'une base de connaissance et également d'une capacité d'absorption. En revanche, nous pouvons supposer que c'est l'ensemble des activités de l'entreprise qui est générateur de nouveaux savoirs et donc de productivité. Cohen et Levinthal (1990) le reconnaissent d'ailleurs, en soulignant le caractère collectif et organisationnel de l'absorption des connaissances externes, notamment en insistant sur la communication entre les sous-unités de la firme. Les travaux en termes de fonction de production incluant une variable de R&D devraient gagner en qualité, à condition qu'ils intègrent d'autres formes d'amélioration de la productivité. Nous pensons notamment à la formation professionnelle financée par les entreprises, à la codification des connaissances tacites. Pour cette raison, nous proposons, dans cette thèse, de compléter les travaux antérieurs sur les sources de la connaissance et sur la contribution des connaissances à la productivité des entreprises. Nous pensons que le stock de connaissances des entreprises s'accroît non seulement a la suite des activités de R&D mais également à la suite d'autres activités formelles telles que la formation professionnelle et la capitalisation des connaissances. Notre travail tente de répondre, même partiellement, aux questions touchant le lien connaissances-productivité. Pour cela, nous proposons une approche unifiée englobant la R&D, l'innovation, la formation professionnelle financée par les entreprises, la qualité et la productivité des entreprises. Nous rompons, dans cette thèse, avec l'analyse économique plutôt traditionnelle laissant trop de place à l'analyse des effets des investissements en R&D.
18

Caron, Clément. "Provenance et Qualité dans les Workflows Orientés Données : application à la plateforme WebLab." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066568/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plateforme Weblab est un environnement de définition et d’exécution de chaines de traitements média-mining développé par le service IPCC1 d’Airbus Defence and Space. Il s’agit d’une plateforme ouverte d’intégration de composants externes dont la richesse permet aux concepteurs de construire des chaines média-mining très complexes, mais pose également des problèmes liés à la sensibilité de la qualité des résultats par rapport aux composants utilisés. Avant le début de cette thèse, aucun outil n’existait pour l’analyse et l’amélioration de la qualité de workflows WebLab. La problématique principale de la thèse repose sur le fonctionnement dit boite noire des services WebLab. L’approche choisie est non-intrusive : nous complétons la définition du workflow WebLab par des règles de provenance et de propagation de qualité. Les règles de provenance génèrent des liens de dépendance dit grains-fins entre les données et les services après l’exécution d’une chaine de traitements WebLab. Les règles de propagation de qualité profitent des liens inférés précédemment pour raisonner sur l’influence de la qualité d’une donnée utilisée par un service sur la qualité d’une donnée produite
The WebLab platform is an application used to define and execute media-mining workflows. It is an open source platform, developed by the IPCC1 section of Airbus Defence and Space, for the integration of external components. A designer can create complex media-mining workflows using components, whose operation is not always known (black-boxes services). These complex workflows can lead to a problem of data quality, however, and before this work, no tool existed to analyse and improve the quality of WebLab workflows. To deal with black-box services, we choose to tackle this quality problem with a non-intrusive approach: we enhance the definition of the WebLab workflow with provenance and quality propagation rules. Provenance rules generate fine-grained data dependency links between data and services after the execution of a WebLab workflow. Then the quality propagation rules use these links to reason on the influence that the quality of the data used by a component has on the quality of the output data…
19

Caron, Clément. "Provenance et Qualité dans les Workflows Orientés Données : application à la plateforme WebLab." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066568.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plateforme Weblab est un environnement de définition et d’exécution de chaines de traitements média-mining développé par le service IPCC1 d’Airbus Defence and Space. Il s’agit d’une plateforme ouverte d’intégration de composants externes dont la richesse permet aux concepteurs de construire des chaines média-mining très complexes, mais pose également des problèmes liés à la sensibilité de la qualité des résultats par rapport aux composants utilisés. Avant le début de cette thèse, aucun outil n’existait pour l’analyse et l’amélioration de la qualité de workflows WebLab. La problématique principale de la thèse repose sur le fonctionnement dit boite noire des services WebLab. L’approche choisie est non-intrusive : nous complétons la définition du workflow WebLab par des règles de provenance et de propagation de qualité. Les règles de provenance génèrent des liens de dépendance dit grains-fins entre les données et les services après l’exécution d’une chaine de traitements WebLab. Les règles de propagation de qualité profitent des liens inférés précédemment pour raisonner sur l’influence de la qualité d’une donnée utilisée par un service sur la qualité d’une donnée produite
The WebLab platform is an application used to define and execute media-mining workflows. It is an open source platform, developed by the IPCC1 section of Airbus Defence and Space, for the integration of external components. A designer can create complex media-mining workflows using components, whose operation is not always known (black-boxes services). These complex workflows can lead to a problem of data quality, however, and before this work, no tool existed to analyse and improve the quality of WebLab workflows. To deal with black-box services, we choose to tackle this quality problem with a non-intrusive approach: we enhance the definition of the WebLab workflow with provenance and quality propagation rules. Provenance rules generate fine-grained data dependency links between data and services after the execution of a WebLab workflow. Then the quality propagation rules use these links to reason on the influence that the quality of the data used by a component has on the quality of the output data…
20

Drouet, Julie. "Séparation des sources de bruit des moteurs Diesel : Application en hiérarchisation de source et qualité sonore." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0053/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le spectrofiltre est un filtre de Wiener utilisé pour isoler le bruit de combustion du moteur Diesel. Ce filtre est déterminé pour chaque point de fonctionnement et nécessite un traitement important des données. Il est donc difficile de mener des études perceptives sur le bruit de combustion obtenu selon plusieurs réglages moteur. Afin de pallier à cet inconvénient, cette thèse a pour objectif de définir un filtre commun qui puisse synthétiser un bruit de combustion en tout point de fonctionnement. Pour cela, une étude perceptive a montré que la substitution du spectrofiltre conventionnel par un autre filtre de Wiener permet la synthèse d’un bruit de combustion. L’utilisation d’un spectrofiltre commun est donc possible. L’analyse modale expérimentale permet d’estimer le filtre de Wiener à partir de données caractéristiques de la structure du moteur. Après analyse sur un signal synthétique, la méthode ESPRIT apparait la plus appropriée, mais nécessite quelques optimisations pour être adaptée aux particularités des spectrofiltres. Les filtres de Wiener de plusieurs régimes sont estimés selon différentes conditions d’estimation, définies par le critère ESTER. Une évolution fictive de l’amortissement selon le régime moteur est observée, et rattachée au fenêtrage temporel effectué dans le calcul du spectrofiltre. Une expérience perceptive est ensuite menée pour identifier si le critère ESTER permet d’estimer des filtres assez précis pour synthétiser des bruits de combustion similaires aux bruits de combustion conventionnels. Les résultats amènent à concevoir le spectrofiltre obtenu au ralenti comme un bon filtre commun, tant d’un point de vue physique que perceptif
The spectrofilter is a Wiener filter used to extract combustion noise. This filter requires an important data processing and is determined in all operating conditions. Thus it is difficult to carry out perceptual studies on combustion noise from various motor adjustments. To overcome this drawback, this PhD dissertation aims to define a common filter which can synthesize a combustion noise in all operating conditions. For this, a perceptual study showed that the substitution of the conventional spectrofilter by another Wiener filter allows the synthesis of a combustion noise. The use of a common spectrofilter is thus possible. The experimental modal analysis allows to estimate the Wiener filter from characteristic data of the engine structure. After studying on a synthetic signal, the ESPRIT method seems to be the most appropriate, but requires some optimizations to be adapted to spectrofilter peculiarities. The Wiener filters of several running speeds are estimated in different estimating conditions, defined by the ESTER criterion. A fictitious damping evolution with the running speed is observed and linked to the temporal windowing applied on the spectrofilter computation. A perceptual experience is then carried out to identify if the ESTER criterion allows to estimate accurately filters to synthesize combustion noises similar to conventional combustion noises. The results lead to conceive the spectrofilter obtained in idling condition as a good common filter, as in a physical point of view that perception
21

Berti-Équille, Laure. "La qualité des données et leur recommandation : modèle conceptuel, formalisation et application a la veille technologique." Toulon, 1999. http://www.theses.fr/1999TOUL0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les activités liées à la veille technologique sont traditionnellement centrées sur la notion de validation de l'information par expertise. Jusqu'à présent aucun système d'information n'assure (ni n'assiste) l'analyse critique et qualitative de l'information qu'il stocke. La plupart des systèmes d'information actuels stockent des données (I) dont la source est généralement unique, non connue ou non identifiée/authentifiée et (2) dont k qualité est inégale et/ou ignorée. Après avoir analysé le vaste panorama des travaux de recherche dont les problématiques présentent des analogies avec la problématique de la veille, l'objectif était de proposer un environnement permettant la gestion des sources textuelles, des données (souvent contradictoires) extraites de leur contenu et des méta-données de qualité. La contribution de cette thèse est d'apporter une perspective multi-source à la qualité des données en définissant les concepts de base de données multi-sources (BDMS), de qualité de données multi-sources (QDMS) et de recommandation multi-critère. Mon travail s'est axé sur : la proposition d'une méthodologie qui guide pas-à-pas la mise en oeuvre de la qualité des données dans un contexte d'informations mulli-sources ; la modélisation conceptuelle d'une BDMS permettant la gestion de sources, de données multi-sources et t de leur rnéta-données de qualité et proposant des mécanismes de recommandation des données selon leur qualité relative, la formalisation du modèle de données QDMS qui décrit les données multi-sources, leurs méta-données de qualité et l'ensemble des opérations pour les manipuler, le développement du prototype sQuaL pour valider l'ensemble de mes propositions. Les perspectives sont de développer un système d'information spécifique à la veille pour qu'il gère des données multi-sources, prenne en compte la qualité de ses propres données et propose à l'interrogation une recommandation des données basée sur leur qualité relative. A plus long terme, il s'agit de développer le concept de système d'information "introspectif", c'est-à-dire actif et réactif quant à la qualité de ses propres données
Technological Watch activities are focused on information qualification and validation by human expertise. As a matter of facf, none of these systems can provide (nor assist) a critical and qualitative analysis of data they store and manage- Most of information systems store data (1) whose source is usually unique, not known or not identified/authenticated (2) whose quality is unequal and/or ignored. In practice, several data may describe the same entity in the real world with contradictory values and their relative quality may be comparatively evaluated. Many techniques for data cleansing and editing exist for detecting some errors in database but it is determinant to know which data have bad quality and to use the benefit of a qualitative expert judgment on data, which is complementary to quantitative and statistical data analysis. My contribution is to provide a multi-source perspective to data quality, to introduce and to define the concepts of multi-source database (MSDB) and multi-source data quality (MSDQ). My approach was to analyze the wide panorama of research in the literature whose problematic have some analogies with technological watch problematic. The main objective of my work was to design and to provide a storage environment for managing textual information sources, (more or less contradictory) data that are extracted from the textual content and their quality mcta-data. My work was centered on proposing : the methodology to guide step-by-step a project for data quality in a multi-source information context, the conceptual modeling of a multi-source database (MSDB) for managing data sources, multi-source data and their quality meta-data and proposing mechanisms for multi-criteria data recommendation ; the formalization of the QMSD data model (Quality of Multi-Source Data) which describes multi-source data, their quality meta-data and the set of operations for manipulating them ; the development of the sQuaL prototype for implementing and validating my propositions. In the long term, the perspectives are to develop a specific dccisional information system extending classical functionalities for (1) managing multi-source data (2) taking into account their quality meta-data and (3) proposing data-quality-based recommendation as query results. The ambition is to develop the concept of "introspective information system" ; that is to say, an information system thai is active and reactive concerning the quality of its own data
22

Troya-Galvis, Andrès. "Approche collaborative et qualité des données et des connaissances en analyse multi-paradigme d'images de télédétection." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD040/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'interprétation automatique d'images de télédétection à très haute résolution spatiale est une tâche complexe mais nécessaire. Les méthodes basées objet sont couramment employées pour traiter ce type d'images. Elles consistent à construire les objets d'intérêt au moyen d'une étape de segmentation puis à les classifier en utilisant des méthodes de fouille de données. La majorité des travaux entrepris dans ce domaine considèrent la segmentation et la classification de manière indépendante. Or, ces deux étapes cruciales du processus sont fortement liées. Dans cette thèse, nous proposons deux approches différentes basées sur la qualité des données et des connaissances, pour initialiser, guider et évaluer un processus collaboratif de manière objective: 1. Une première approche basée sur une stratégie d'extraction mono-classe qui permet de se focaliser sur les propriétés particulières d'une classe donnée afin de mieux labelliser les objets de cette classe par rapport au reste. 2. Une deuxième approche multi-classe offrant deux stratégies différentes d'agrégation d'extracteurs mono-classes qui permet l'obtention d'une image entièrement labellisée de manière automatique
Automatic interpretation of very high spatial resolution remotely sensed images is a complex but necessary task. Object-based image analysis approaches are commonly used to deal with this kind of images. They consist in applying an image segmentation algorithm in order to construct the abjects of interest, and then classifying them using data-mining methods. Most of the existing work in this domain consider the segmentation and the classification independently. However, these two crucial steps are closely related. ln this thesis, we propose two different approaches which are based on data and knowledge quality in order to initialize, guide, and evaluate a segmentation and classification collaborative process. 1. The first approach is based on a mono-class extraction strategy allowing us to focus on the particular properties of a given thematic class in order to accurately label the abjects of this class. 2. The second approach deals with multi-class extraction and offers two strategies to aggregate several mono-class extractors to get a final and completely labelled image
23

Da, Silva Carvalho Paulo. "Plateforme visuelle pour l'intégration de données faiblement structurées et incertaines." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4020/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous entendons beaucoup parler de Big Data, Open Data, Social Data, Scientific Data, etc. L’importance qui est apportée aux données en général est très élevée. L’analyse de ces données est importante si l’objectif est de réussir à en extraire de la valeur pour pouvoir les utiliser. Les travaux présentés dans cette thèse concernent la compréhension, l’évaluation, la correction/modification, la gestion et finalement l’intégration de données, pour permettre leur exploitation. Notre recherche étudie exclusivement les données ouvertes (DOs - Open Data) et plus précisément celles structurées sous format tabulaire (CSV). Le terme Open Data est apparu pour la première fois en 1995. Il a été utilisé par le groupe GCDIS (Global Change Data and Information System) (États-Unis) pour encourager les entités, possédant les mêmes intérêts et préoccupations, à partager leurs données [Data et System, 1995]. Le mouvement des données ouvertes étant récent, il s’agit d’un champ qui est actuellement en grande croissance. Son importance est actuellement très forte. L’encouragement donné par les gouvernements et institutions publiques à ce que leurs données soient publiées a sans doute un rôle important à ce niveau
We hear a lot about Big Data, Open Data, Social Data, Scientific Data, etc. The importance currently given to data is, in general, very high. We are living in the era of massive data. The analysis of these data is important if the objective is to successfully extract value from it so that they can be used. The work presented in this thesis project is related with the understanding, assessment, correction/modification, management and finally the integration of the data, in order to allow their respective exploitation and reuse. Our research is exclusively focused on Open Data and, more precisely, Open Data organized in tabular form (CSV - being one of the most widely used formats in the Open Data domain). The first time that the term Open Data appeared was in 1995 when the group GCDIS (Global Change Data and Information System) (from United States) used this expression to encourage entities, having the same interests and concerns, to share their data [Data et System, 1995]. However, the Open Data movement has only recently undergone a sharp increase. It has become a popular phenomenon all over the world. Being the Open Data movement recent, it is a field that is currently growing and its importance is very strong. The encouragement given by governments and public institutions to have their data published openly has an important role at this level
24

Ben, othmane Zied. "Analyse et visualisation pour l'étude de la qualité des séries temporelles de données imparfaites." Thesis, Reims, 2020. http://www.theses.fr/2020REIMS002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail de thèse, nous nous intéressons à la qualité des informations récoltées par des capteurs sur le web. Ces données forment des séries de données temporelles qui sont incomplètes et imprécises, et sont sur des échelles quantitatives peu comparables. Dans ce contexte, nous nous intéressons plus particulièrement à la variabilité et la stabilité de ces séries temporelles. Nous proposons deux approches pour les quantifier. La première se base sur une représentation à l'aide des quantiles, la seconde est une approche floue. A l'aide de ces indicateurs, nous proposons un outil de visualisation interactive dédié à l'analyse de la qualité des récoltes effectuées par les capteurs. Ce travail s'inscrit dans une collaboration CIFRE avec la société Kantar
This thesis focuses on the quality of the information collected by sensors on the web. These data form time series that are incomplete, imprecise, and are on quantitative scales that are not very comparable. In this context, we are particularly interested in the variability and stability of these time series. We propose two approaches to quantify them. The first is based on a representation using quantiles, the second is a fuzzy approach. Using these indicators, we propose an interactive visualization tool dedicated to the analysis of the quality of the harvest carried out by the sensors. This work is part of a CIFRE collaboration with Kantar
25

Vaillant, Benoît. "Mesurer la qualité des règles d'association : études formelles et expérimentales." Télécom Bretagne, 2006. http://www.theses.fr/2006TELB0026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'extraction de connaissances à partir de données vise à extraire des motifs contenus dans des entrepôts de données, dont la taille ne cesse de croître. C'est un processus complexe dans lequel plusieurs experts (métier, analyste, informaticien. . . ) doivent coopérer afin de révéler des motifs qui seront évalués selon différents critères : validités, nouveauté, compréhensibilité, exploitabilité, etc. Or, ces dernier critères sont fortement liés au contexte applicatif et peuvent être formulés de différentes manières. De plus, les progrès techniques et méthodologiques permanents permettent de traiter des volumes de données de plus en plus importants. Par voie de conséquence, le nombre de motifs extraits est également de plus en plus grand, sans pour autant qu'ils soient tous valides - bien au contraire. Force est de constater que la validation de connaissances ne peut maintenant plus se faire sans assistance au décideur, ce dernier ayant bien souvent comme tâche la validation des motifs. Afin de permettre de procéder à cette tâche finale de validation lors du processus, un moyen couramment retenu est l'utilisation de fonctions quantifiant numériquement la pertinence des connaissances. De telles fonctions, dites mesures de qualité, mettent en avant une typologie de connaissance donnée, en induisant un ordre sur celles-ci. De nombreuses mesures ont été proposées, chacune étant liée à des situations précises. Nous adressons la problématique de l'évaluation objective de la qualité d'un type de motif particulier, les règlesd'association, par de telles mesures. Considérant que la sélection des « bonnes » règles repose sur l'utilisation d'une mesure adaptée, nous proposons une étude systématique de ces dernières, basée sur une analyse de propriétés formelles, énoncées selon des termes les plus compréhensibles possibles. De cette étude, on produit une classification d'un nombre important de mesures classiques, que nous confrontons à une classification expérimentale, obtenue en comparant les rangements induits par les mesures pour plusieurs jeux de données. L'étude des propriétés classiques et la définition de nouvelles nous a également permis de mettre en avant certaines particularités des mesures. Nous en déduisons un cadre généralisant la plupart d'entre elles. Nous appliquons également deux méthodes d'Aide Multicritère à la Décision afin de résoudre le problème de la sélection des règles pertinentes. La première approche se fonde sur la prise en compte d'un système de préférences exprimé par un expert de données sur les propriétés précédemment définies, en vue d'orienter le choix de mesure(s) adaptée(s) au contexte applicatif. La seconde approche adresse le problème de la prise en compte des valeurs potentiellement discordantes qu'expriment les mesures sur l'intérêt des règles, et construisons une vue agrégée de leur ordonnancement, en prenant en compte les écarts d'évaluation. Ces méthodes sont appliquées à des situations pratiques. Ce travail nous a aussi conduit au développement d'un outil spécifique performant, Herbs. Nous présentons les traitements qu'il permet d'effectuer, tant en termes de sélection de règles, d'analyse du comportement des mesures et de visualisation
Knowledge discovery in databases aims at extracting information contained in data warehouses. It is a complex process, in which several experts (those acquainted with data, analysts, processing specialists, etc. ) must act together in order to reveal patterns, which will be evaluated according to several criteria: validity, novelty, understandability, exploitability, etc. Depending on the application field, these criteria may be related to differing concepts. In addition, constant improvements made in the methodological and technical aspects of data mining allow one to deal with ever-increasing databases. The number of extracted patterns follows the same increasing trend, without them all being valid, however. It is commonly assumed that the validation of the knowledge mined cannot be performed by a decision maker, usually in charge of this step in the process, without some automated help. In order to carry out this final validation task, a typical approach relies on the use of functions which numerically quantify the pertinence of the patterns. Since such functions, called interestingness measures, imply an order on the patterns, they highlight some specific kind of information. Many measures have been proposed, each of them being related to a particular category of situations. We here address the issue of evaluating the objective interestingness of the particular type of patterns that are association rules, through the use of such measures. Considering that the selection of ``good'' rules implies the use of appropriated measures, we propose a systematic study of the latter, based on formal properties expressed in the most straightforward terms. From this study, we obtain a clustering of many commonly-used measures which we confront with an experimental approach obtained by comparing the rankingsinduced by these measures on classical datasets. Analysing these properties enabled us to highlight some particularities of the measures. We deduce a generalised framework that includes a large majority of them. We also apply two Multicriteria Decision Aiding methods in order to solve the issue of retaining pertinent rules. The first approach takes into account a modelling of the preferences expressed by an expert in the field being mined about the previously defined properties. From this modelling, we establish which measures are the most adapted to the specific context. The second approach addresses the problem of taking into account the potentially differing values that the measures take, and builds an aggregated view of the ordering of the rules by taking into account the differences in evaluations. These methods are applied to practical situations. This work also led us to develop powerful dedicated software, Herbs. We present the processing it allows for rule selection purposes, as well as for the analysis of the behaviour of measures and visualisation aspects. Without any claim to exhaustiveness in our study, the methodology We propose can be extended to new measures or properties, and is applicable to other data mining contexts
26

Au, Carine. "Acoustique des chaudières hybrides : optimisation et contrôle par une approche qualité sonore." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0071/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les constructeurs se préoccupent de plus en plus du bruit généré par leurs produits, que ce soit dans le domaine de l’automobile, de l’aéronautique ou récemment de l’électroménager, à cause des réglementations beaucoup plus strictes en termes de niveau sonore. Mais au-delà du bruit, la demande des utilisateurs ou de la population, concerne encore davantage la qualité sonore.Dans l’équipement électroménager, la chaudière hybride innovante développée par e.l.m. leblanc est un produit très intéressant sur le plan énergétique, puisqu’à la chaudière à gaz à condensation est associée une pompe à chaleur dans un encombrement réduit. Cette dernière a un coefficient de performance de 3,7 (3,7 kW/h fourni pour une consommation d’1kW/h électrique), elle permet ainsi une grande économie sur la facture de l’utilisateur.Cependant, son niveau sonore élevé empêche son installation dans des pièces de vie, comme la cuisine, limitant ainsi la conquête d’un plus vaste marché. Il faudrait que son bruit soit environ 40 fois moins fort pour répondre au niveau réglementaire. La conception d’une nouvelle génération de chaudière hybride a été l’occasion de lancer cette étude visant non seulement à réduire le niveau sonore, mais également à sculpter le son, afin de le rendre moins gênant.Une nouvelle approche, appelée Acoustique Prévisionnelle des SYstèmes Dynamiques (APSYD), a été utilisée et a servi de fil conducteur à notre étude. Elle permet de prendre en compte les critères acoustiques, vibratoires et également ceux de la qualité sonore, très en amont dans la conception d’un produit, ce qui évite de coûteuses modifications, ou même le rejet du produit fini, s’il est jugé trop bruyant.Dans ce travail de thèse, des mesures acoustiques et vibratoires sur les chaudières hybrides existantes ont été réalisées et analysées pour identifier les modifications optimales susceptibles de diminuer le bruit. Des solutions ont été proposées et leurs effets ont été évalués par des mesures. Le niveau sonore réglementaire a été atteint avec les dispositions que nous avons proposées.Pour intégrer la composante qualité sonore dans la conception, des tests d’écoute ont été réalisés pour identifier la cible sonore de la nouvelle chaudière hybride. Des analyses statistiques (ACP, AFC, ANOVA) ont permis de faire ressortir les paramètres qui interviennent, parfois de manière très fine, sur le ressenti sonore. Nous avons également testé l’effet de l’insertion d’une sonorité musicale et nous avons trouvé une corrélation entre l’agrément du bruit de l’appareil et ce paramètre.Ce constat a orienté la thèse vers le développement d’une méthode originale permettant de définir les paramètres physiques d’un ventilateur pour qu’il génère une sonorité musicale donnée. Pour cela, nous avons proposé une nouvelle démarche semi-expérimentale permettant de prédire le spectre de raies d’une roue, et employé un algorithme d’optimisation, afin de rechercher les paramètres géométriques optimaux de la roue. Elle a été validée sur deux bancs d’expérimentation. Cette nouvelle méthode permet de sculpter le son tonal d’un ventilateur, d’une turbomachine, ou plus largement d’une machine tournante
Manufacturers increasingly care about noise made by their products, whether it is in car, in aeronautics, or recently in home appliances industry, because of much more restricting regulations regarding noise level. But beyond noise, users and population’s demand concerns more about sound quality.Among domestic equipment, the innovate hybrid boiler developed by e.l.m. leblanc is an interesting product energetically speaking as the condensing gas boiler is combined with a heat pump in a limited space. The performance coefficient of the heat pump is 3.7 (3.7 kW/h provided for an electric consumption of 1 kW/h), resulting in large savings on users’ bills.However, its high noise level prevents its installation in living spaces, such as kitchen, restricting the conquest of a larger market. His noise should be 40 times lower to meet regulatory level. The design of a new generation of hybrid boiler has been the opportunity to start this study aiming not only to reduce noise level, but also to carve sound in order to make it less annoying.A new approach, called Projected Acoustics of Dynamic Systems (PADS), has been used and has acted as a thread for our study. It takes into account acoustic, vibrating criteria and also those from sound quality well upstream from product design stage, thus avoiding expensive modifications or even rejection of the finished product if the latter is considered noisy.Acoustic and vibration measurements have been carried out on existing hybrid boilers and they have been analyzed in order to identify optimal modifications that may reduce noise. Solutions have been suggested and their effects have been evaluated by measurements. The regulatory noise level is reached with suggested measures.To integrate sound quality component into design, listening tests have been carried out to identify the sound target of the new hybrid boiler. Statistical analysis (PCA, FCA, Variance Analysis) brought out parameters impacting on noise perception, sometimes very subtly. We have tested the effect of the integration of musical tone and a correlation between noise pleasantness and this parameter was observed.This observation has concentrated this thesis on the development of an original method that can define the physical parameters of a fan so it makes a given musical tone. To do so, we have suggested a new semi-experimental approach that can predict line spectrum of a fan and we have used an optimization algorithm in order to find the optimum geometrical parameters. This new method has been validated with two test benches. It can be used to curve tonal noise of a fan, a turbomachine, or more generally a rotating machine
27

Palan, Bohuslav. "Conception de microcapteurs pH-ISFET faible bruit et d'inductances intégrées suspendues à fort facteur de qualité Q." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Guillet, Fabrice. "Qualité, Fouille et Gestion des Connaissances." Habilitation à diriger des recherches, Université de Nantes, 2006. http://tel.archives-ouvertes.fr/tel-00481938.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Qualité, Fouille et Gestion des Connaissances Lorem ipsum dolor sit amet, consectetuer adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales
29

Mantel, Claire. "Bruits temporels de compression et perception de la qualité vidéo : mesure et correction." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00680787.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces dernières années la diffusion vidéo "de salon" a connu trois transitions majeures : la compression vidéo aévolué de la norme MPEG2 à la norme h.264, les écrans à tube cathodique ont disparu du marché des téléviseurs quiest actuellement dominé par les écrans à cristaux liquides (LCD) et pour nir le format haute-définition (1280x720pixels ou 1920x1080) supplante de plus en plus le format SD (576x720). Ces évolutions ont modifié l'importancedes différents types de défauts de compression pour la perception de la qualité d'une vidéo. Les défauts majeursde compression vidéo sont désormais le ou et les défauts temporels. Le terme défaut temporel regroupe ici lavariation temporelle de défauts spatiaux comme l'effet de bloc et des défauts spécifiquement temporels comme lebruit de moustique.Nous nous sommes tout d'abord focalisés sur la correction du bruit de moustique. Le correcteur que nousproposons, le TVIF, est adapté aux trois caractéristiques de ce défaut : faible amplitude par rapport au contenulocal, proximité des contours et variation temporelle. Nous avons évalué l'efficacité de notre correcteur avec desmétriques objectives mais, celles-ci ne permettant pas de conclure sur les performances de notre ltre, nousavons organisé une expérience subjective de qualité. Les données recueillies lors de cette expérience indiquentque les observateurs perçoivent notre filtre comme une amélioration et que la version spatio-temporelle de notrecorrecteur est préférée à sa version spatiale. Reboucler sur les évaluations objectives nous permet de conclure queles métriques objectives ne mesurent pas adéquatement la correction du bruit de moustique, ni l'apport de lacorrection spatio-temporelle par rapport à la correction spatiale.Nous avons ensuite organisé une expérience couplant évaluation de qualité (globale et temporelle) et enregistrementsdes positions oculaires des observateurs. Cette expérience nous permet de spécifier plusieurs pointsutiles pour réaliser une métrique objective de qualité temporelle. Par exemple, le défaut le plus gênant pour laperception de la qualité globale est la variation d'effet de bloc, qui doit donc être la priorité d'une métrique dequalité temporelle. L'analyse des mouvements oculaires des observateurs en tâche libre, tâche de qualité globaleet tâche de qualité temporelle montre, entre autres, que la qualité de la vidéo diffusée n'a pas d'influence visiblesur les endroits regardés par les participants mais influence fortement la durée des fixations.
30

Ben, Hassine Soumaya. "Évaluation et requêtage de données multisources : une approche guidée par la préférence et la qualité des données : application aux campagnes marketing B2B dans les bases de données de prospection." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO22012/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec l’avènement du traitement distribué et l’utilisation accrue des services web inter et intra organisationnels alimentée par la disponibilité des connexions réseaux à faibles coûts, les données multisources partagées ont de plus en plus envahi les systèmes d’informations. Ceci a induit, dans un premier temps, le changement de leurs architectures du centralisé au distribué en passant par le coopératif et le fédéré ; et dans un deuxième temps, une panoplie de problèmes d’exploitation allant du traitement des incohérences des données doubles à la synchronisation des données distribuées. C’est le cas des bases de prospection marketing où les données sont enrichies par des fichiers provenant de différents fournisseurs.Nous nous intéressons au cadre particulier de construction de fichiers de prospection pour la réalisation de campagnes marketing B-to-B, tâche traitée manuellement par les experts métier. Nous visons alors à modéliser le raisonnement de brokers humains, afin d’optimiser et d’automatiser la sélection du « plan fichier » à partir d’un ensemble de données d’enrichissement multisources. L’optimisation en question s’exprimera en termes de gain (coût, qualité) des données sélectionnées, le coût se limitant à l’unique considération du prix d’utilisation de ces données.Ce mémoire présente une triple contribution quant à la gestion des bases de données multisources. La première contribution concerne l’évaluation rigoureuse de la qualité des données multisources. La deuxième contribution porte sur la modélisation et l’agrégation préférentielle des critères d’évaluation qualité par l’intégrale de Choquet. La troisième contribution concerne BrokerACO, un prototype d’automatisation et d’optimisation du brokering multisources basé sur l’algorithme heuristique d’optimisation par les colonies de fourmis (ACO) et dont la Pareto-optimalité de la solution est assurée par l’utilisation de la fonction d’agrégation des préférences des utilisateurs définie dans la deuxième contribution. L’efficacité du prototype est montrée par l’analyse de campagnes marketing tests effectuées sur des données réelles de prospection
In Business-to-Business (B-to-B) marketing campaigns, manufacturing “the highest volume of sales at the lowest cost” and achieving the best return on investment (ROI) score is a significant challenge. ROI performance depends on a set of subjective and objective factors such as dialogue strategy, invested budget, marketing technology and organisation, and above all data and, particularly, data quality. However, data issues in marketing databases are overwhelming, leading to insufficient target knowledge that handicaps B-to-B salespersons when interacting with prospects. B-to-B prospection data is indeed mainly structured through a set of independent, heterogeneous, separate and sometimes overlapping files that form a messy multisource prospect selection environment. Data quality thus appears as a crucial issue when dealing with prospection databases. Moreover, beyond data quality, the ROI metric mainly depends on campaigns costs. Given the vagueness of (direct and indirect) cost definition, we limit our focus to price considerations.Price and quality thus define the fundamental constraints data marketers consider when designing a marketing campaign file, as they typically look for the "best-qualified selection at the lowest price". However, this goal is not always reachable and compromises often have to be defined. Compromise must first be modelled and formalized, and then deployed for multisource selection issues. In this thesis, we propose a preference-driven selection approach for multisource environments that aims at: 1) modelling and quantifying decision makers’ preferences, and 2) defining and optimizing a selection routine based on these preferences. Concretely, we first deal with the data marketer’s quality preference modelling by appraising multisource data using robust evaluation criteria (quality dimensions) that are rigorously summarized into a global quality score. Based on this global quality score and data price, we exploit in a second step a preference-based selection algorithm to return "the best qualified records bearing the lowest possible price". An optimisation algorithm, BrokerACO, is finally run to generate the best selection result
31

Etame, Etame Thierry. "Conception de signaux de référence pour l'évaluation de la qualité perçue des codeurs de la parole et du son." Rennes 1, 2008. http://www.theses.fr/2008REN1S112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La manière la plus fiable d’évaluer la qualité des codecs consiste toujours à réaliser des séances d’écoute subjectives avec des méthodes qui doivent sans cesse s'adapter aux dégradations générées par les nouveaux schémas de compression. Ces tests nécessitent la présence de conditions de référence afin de permettre la comparaison des résultats d'un test à l'autre. Or, avec le système de référence MNRU (Modulated Noise Reference Unit ou appareil de référence à bruit modulé) actuel, seule la dégradation du bruit de quantification générée par les codeurs de forme d'onde PCM (Pulse Code Modulation ou MIC, Modulation par Impulsion Codée) est prise en compte. L'objectif de ce travail de thèse est de proposer un système de référence adapté aux dégradations générées par les nouveaux schémas de compression. La démarche adoptée consiste à déterminer et à caractériser l'espace perceptif qui sous-tend la perception des dégradations des codeurs actuels, pour pouvoir simuler ces dégradations
Subjective assessment is the most reliable way to determine overall perceived voice quality of network equipment, as digital codecs. Reference conditions are useful in subjective tests to provide anchors so that results from different tests can be compared. The Modulated Noise Reference Unit (MNRU) provides a simulated and calibrated degradation qualitatively similar to quantization distortion of waveform codecs. The introduction of new technologies for telecommunications services introduce new types of distortions and so the MNRU is not representative any more of the current degradations. The purpose of our work is to produce a reference system that can simulate and calibrate current degradations of speech and audio codec. The first step of the work consists in producing the multidimensional perceptive space underlying the perception of current degradations. The characterization of these perceptive dimensions should help to simulate and calibrate similar degradations
32

Lévesque, Johann. "Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24759/24759.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis l’avènement du numérique, la demande de données par les utilisateurs des systèmes d’information géographique (SIG) ne fait qu’augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s’il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l’expert en qualité doit recueillir de l’information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d’une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l’aide d’opérateurs d’agrégation typiques des outils SOLAP. Il s’agit là d’une solution qui permet de faciliter l’analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l’utilisation du système MUM dans sa forme actuelle. L’objectif de la présente recherche a donc été d’élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d’un jeu de données à l’aide des métadonnées grossières et des opinions d’experts touchant un ensemble d’occurrences. Cette méthodologie amène l’expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l’hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d’hétérogénéité. Il permet en effet de quantifier le risque lié à l’imperfection de l’information contenue dans les indicateurs de qualité. L’enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d’intégrer la dimension « Métaqualité » dans le processus d’évaluation de la qualité.
33

Ubéda, Thierry. "Contrôle de la qualité spatiale des bases de données géographiques : cohérence topologique et corrections d'erreurs." Lyon, INSA, 1997. http://theses.insa-lyon.fr/publication/1997ISAL0116/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La contribution de ce travail s'inscrit dans le contrôle de la qualité spatiale des données géographiques. Les bases traitées sont les bases existantes et dont les données sont stockées dans un format vecteur (ou filaire). Nous ne nous attacherons pas à un modèle de données particulier, mais nous développerons des techniques adaptables à tout type de bases répondant aux deux critères donns ci-dessus. Les apports de cette étude dans le domaine de l'amélioration de la qualité des données géographiques se situent à deux niveaux complémentaires, conceptuel et sémantique, pour chacun desquels des méthodes de mise en oeuvre sont définies : Au niveau conceptuel sont définies des proporiétés géométriques applicables à des types d'objets géographiques en fonction de la dimension de la forme qui les représente (0,1 ou 2). Cette approche est indépendante du modèle de données et permet la construction d'une liste de propriétés à lui appliquer en fonction des objets qui le composent ; Au niveau sémantique, les relations spatiales entre les objets de la base sont prises en compte au moyen de contraintes d'intégrité topologiques. Elles ont pour but la définition de situations qui doivent ou ne doivent pas exister entre deux entités de la base
This work concerns spatial data quality checking in geographical data sets, and especially existing geographical vector databases. Methods developed in this work are not dedicated to a particular data model, but can be adapted to all database fulfilling the two criteria previously given. Concerning the issue of data quality enrichment, this study concerns two complementary levels, namely the conceptual and the semantic level. For each level, processes are developed :- At the conceptual level, geometric properties applicable to geographical data types depending on the dimension of the shape that represents them (0, 1 or 2) are defined. This approach is only based on the objects that compose the database and not on the data model itself. It can then be adapted to every vector geographical data set. - At the semantic level, spatial relation among objects of the database are taken into account by means of topological integrity constraints. They allow to define topological situation that should or should not happen
34

Heguy, Xabier. "Extensions de BPMN 2.0 et méthode de gestion de la qualité pour l'interopérabilité des données." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0375/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Business Process Model and Notation (BPMN) est en train de devenir le standard le plus utilisé pour la modélisation de processus métiers. Une des principales améliorations de BPMN 2.0 par rapport à BPMN 1.2 est le fait que les objets de données comportent maintenant des éléments sémantiques. Toutefois, BPMN ne permet pas la représentation des mesures de la performance dans le cadre de l'interopérabilité liée aux échanges de données. Ceci représente une lacune dans l'utilisation de BPMN quand on veut représenter les problèmes entrainés par un manque d'interopérabilité dans les processus métiers. Nous proposons d'étendre le méta-modèle Meta-Object Facility meta-model et le XML Schema Definition de BPMN ainsi que sa représentation graphique dans le but de combler ce manque. L'extension, nommée performanceMeasurement, est définie en utilisant le mécanisme d'extension de BPMN. Ce nouvel élément permettra de représenter les mesures de performance dans le cadre de problèmes d'interopérabilité ainsi que dans celui où ces problèmes ont été résolus. L'utilisation de cette extension est illustrée dans un cas d'étude industriel réel
Business Process Model and Notation (BPMN) is being becoming the most used standard for business process modelling. One of the important upgrades of BPMN 2.0 with respect to BPMN 1.2 is the fact that Data Objects are now handling semantic elements. Nevertheless, BPMN doesn't enable the representation of performance measurement in the case of interoperability problems in the exchanged data object, which remains a limitation when using BPMN to express interoperability issues in enterprise processes. We propose to extend the Meta-Object Facility meta-model and the XML Schema Definition of BPMN as well as the notation in order to fill this gap. The extension, named performanceMeasurement, is defined using the BPMN Extension Mechanism. This new element will allow to represent performance measurement in the case of interoperability problems as well as interoperability concerns which have been solved. We illustrate the use of this extension with an example from a real industrial case
35

Cochet, Caroline. "Bruit et urbanisme : Une approche juridique." Thesis, Antilles-Guyane, 2014. http://www.theses.fr/2014AGUY0711/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De plus en plus, le bruit est considéré comme une véritable pollution. dans le passé, les carrioles, les sabots des chevaux sur les pavés causaient déjà des nuisances aux habitants des villes. dès le xixe siècle, l'évolution de l'industrialisation entraîna une augmentation de la machinerie, qui ne fit qu'augmenter les nuisances sonores. aujourd'hui, le bruit est la cause de nombreuses plaintes. en conséquence, réduire la pollution sonore est devenu une question majeure du fait de ses effets sur la santé humaine. le bruit peut affecter le sommeil, le système cardiovasculaire, le système cérébral, particulièrement le développement cérébral des enfants. il peut causer des déficiences mentales, des problèmes de concentration et des pertes de mémoire. c'est un problème de santé publique. mais le bruit peut aussi entraîner la commission de crimes ou de suicides ! c'est aussi une question d'ordre public.en france, il existe certains dispositifs juridiques de contrôle des émissions sonores et de lutte contre les nuisances, particulièrement depuis la loi « bruit » de 1992. diverses dispositions ont été codifiées dans le code de l'environnement, les classant en fonction des différentes sources de bruit, mais aussi dans d'autres codes, notamment le code de l'urbanisme. il existe une police environnementale du bruit dont le maire et le préfet sont les deux autorités compétentes. tous ces moyens permettent de pallier les problèmes dûs au bruit à court ou à moyen terme.cependant, aujourd'hui, au regard de la préoccupation de développement durable, il convient de penser aux générations futures et de mettre en place des nouveaux moyens de régulation de la pollution sonore, à long terme. le droit de l'urbanisme apparaît comme le moyen privilégié d'atteindre ce but. le bruit pourrait être régulé par une utilisation plus rationnelle des sols… le but de ma recherche est d'analyser quel type de relation existe entre droit du bruit et droit de l'urbanisme et de mettre en évidence vers quelle forme d'urbanisme la société évolue sous l'influence combinée de l'écologie et de la question sonore, notamment à travers les objectifs posés par le grenelle de l'environnement et les lois adoptées en conséquence
Noise is considered as a real pollution for the quality of life. Law has been requested to respond the multi-form cases of noise pollution. The matter is firstly the concern of environmental law. It is especially treated in a sectorial way. Town planning law also seizes the question, in a diffuse way, as environmental issue, or in a specific way when noise pollutions are directly caused by the use of grounds.However, under the influence of more and more pervasive environmental law, and further to the new legislation resulting from the Grenelle of the environment, town planning law underwent a deep transformation. It has been rewritten on the basis of new environmental objectives and of sustainable development. Town planning law also absorbs many other juridical sectors. Therefore it appears as a global space law and living environment law, allowing to improve the sound context.The perception of noise has changed, as well as its consideration into town planning law. Town planning law can be considered as a favorable measure to develop a more global and unified approach of the very composite legal system against noise pollution.The study of the relationship between noise and town planning highlights new manners to consider noise into space and living environment, differently from the classic approach imposed by environmental law
36

Barland, Rémi. "Évaluation objective sans référence de la qualité perçue : applications aux images et vidéos compressées." Nantes, 2007. http://www.theses.fr/2007NANT2028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le passage au tout numérique et le développement des communications multimédias engendrent une circulation de l’information de plus en plus dense. Cet accroissement massif de la quantité de données échangées génère une saturation progressive des réseaux de transmission. Pour remédier à cette situation, les standards de compression cherchent à exploiter davantage la corrélation spatiale et/ou temporelle pour réduire les débits. La réduction d’information résultante génère des artéfacts visuels qui peuvent altérer le contenu visuel de la scène et donc provoquer une gêne chez l’utilisateur final. Afin de proposer le meilleur service de diffusion possible, la mesure de la qualité perçue est alors nécessaire. Les tests subjectifs qui représentent la méthode de référence pour quantifier la perception des dégradations, sont coûteux, lourds à mettre en œuvre et demeurent inappropriés pour une mesure de la qualité en ligne. Dans cette thèse, nous nous sommes intéressés aux standards de compression (image et vidéo) les plus usuels et avons élaboré des métriques de qualité sans référence basées sur l’exploitation des artéfacts visuels les plus gênants, tels que les effets de blocs, de flou et de ringing. L’approche proposée est modulaire et s’adapte au codeur considéré et au rapport complexité/performance recherché. Pour une faible complexité, la métrique quantifie les dégradations spécifiques au codeur considéré, en exploitant uniquement les propriétés du signal image. Pour atteindre de meilleures performances, au détriment d’une certaine complexité, celle-ci intègre en plus des modèles cognitifs simulant les mécanismes de l’attention visuelle. Les cartes de saillance générées par ces modélisations sont alors utilisées pour affiner les mesures de dégradations purement signal proposées
The conversion to the all-digital and the development of multimedia communications produce an ever-increasing flow of information. This massive increase in the quantity of data exchanged generates a progressive saturation of the transmission networks. To deal with this situation, the compression standards seek to exploit more and more the spatial and/or temporal correlation to reduce the bit rate. The reduction of the resulting information creates visual artefacts which can deteriorate the visual content of the scene and thus cause troubles for the end-user. In order to propose the best broadcasting service, the assessment of the perceived quality is then necessary. The subjective tests which represent the reference method to quantify the perception of distortions are expensive, difficult to implement and remain inappropriate for an on-line quality assessment. In this thesis, we are interested in the most used compression standards (image or video) and have designed no-reference quality metrics based on the exploitation of the most annoying visual artefacts, such as the blocking, blurring and ringing effects. The proposed approach is modular and adapts to the considered coder and to the required ratio between computational cost and performance. For a low complexity, the metric quantifies the distortions specific to the considered coder, only exploiting the properties of the image signal. To improve the performance, to the detriment of a certain complexity, this one integrates in addition, cognitive models simulating the mechanisms of the visual attention. The saliency maps generated are then used to refine the proposed distortion measures purely based on the image signal
37

Yildiz, Ustun. "Decentralisation des procédés métiers : qualité de services et confidentialité." Phd thesis, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00437469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche de cette thèse portent sur la modélisation et la gestion des procédés métiers orientés services. Le travail s'intéresse aux procédés d'un point de vue de gestion décentralisée où les services composés peuvent établir des interactions de pair–à-pair. Dans un premier temps, nous présentons une méthode qui permet de dériver des procédés coopérants à partir d'une spécification centralisée. Il s'agit des algorithmes qui analysent un procédé centralisé pour le traduire en procédés coopérants, en transformant le flux de contrôle et le flux de données du procédé d'origine en interactions équivalentes de type pair-à-pair. Un des apports de la décentralisation, qui répond à une nouvelle exigence des procédés orientés vers les services, est l'établissement des interactions de pair-à-pair qui respectent le flux d'information des services composés. La deuxième partie du travail est la proposition d'un langage permettant d'exprimer des politiques de flux d'information. Par la suite, nous étudions l'intégration des politiques du flux d'information dans les procédés coopérants. Le choix d'un service entrant dans une composition peut être effectué dynamiquement, au moment de l'exécution du procédé, de sorte que l'ensemble des services composés n'est pas connu à priori. Une compréhension de la stratégie de choix dynamique des services et leur intégration dans le cadre des contributions proposées dans son ensemble est pour cela une étape centrale. Pour ce faire, une méthodologie qui automatise le processus de déploiement dynamique des procédés coopérants est proposée. Letravail présente une architecture logicielle qui valide les concepts proposés.
38

Maffiolo, Valérie. "De la caractérisation sémantique et acoustique de la qualité sonore de l'environnement urbain : structuration des représentations mentales et influence sur l'appréciation qualitative : application aux ambiances sonores de Paris." Le Mans, 1999. http://www.theses.fr/1999LEMA1012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail associe des recherches en acoustique et en psychologie cognitive et linguistique en vue de la perception et de l'interpretation de l'environnement sonore par les individus. Les objectifs sont de preciser la structuration des representations mentales des ambiances sonores urbaines et d'evaluer leur influence sur l'appreciation qualitative. Les etudes anterieures sur la qualite des bruits urbains font appel a des methodes d'evaluation a la fois quantitatives (mesures de niveau sonore) et qualitatives, dont la mise en uvre repose sur l'etude des representations collectives ou des perceptions individuelles. Leur revue critique souligne la non prise en compte de la signification des bruits pour les auditeurs et la necessite de recourir aux paradigmes de la psychologie cognitive. Nous proposons donc d'aborder l'acoustique de l'environnement a travers la psychologie semantique et linguistique comparee au cognitivisme. La premiere etape de la constitution du corpus experimental consiste a identifier des lieux de paris a partir des representations verbales et graphiques de l'environnement sonore donnees par des citadins. L'ensemble lieu, activite, temps apparait alors comme representatif des ambiances sonores urbaines. La seconde etape consiste a enregistrer in situ et a restituer en laboratoire, sous contrainte de validite ecologique, les scenes sonores retenues. Sept experiences ont ete menees, faisant varier la methode de questionnement des sujets, le niveau sonore des sequences et la consigne donnee aux sujets. L'analyse des resultats permet d'identifier la structuration des representations mentales des ambiances sonores urbaines comme des agregats de proprietes semantiques et physiques, lesquels sont organises differemment pour des scenes evenementielles ou amorphes. La nature de ces agregats influe sur les jugements de qualite. L'effet du traitement des donnees et des procedures experimentales sur l'interpretation des resultats est finalement discute.
39

Devillers, Rodolphe. "Conception d'un système multidimensionnel d'information sur la qualité des données géospatiales." Phd thesis, Université de Marne la Vallée, 2004. http://tel.archives-ouvertes.fr/tel-00008930.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'information géographique est maintenant un produit de masse fréquemment manipulé par des utilisateurs non-experts en géomatique qui ont peu ou pas de connaissances de la qualité des données qu'ils utilisent. Ce contexte accroît significativement les risques de mauvaise utilisation des données et ainsi les risques de conséquence néfaste résultant de ces mauvaises utilisations. Cette thèse vise à fournir à des utilisateurs experts ou des experts en qualité une approche leur permettant d'évaluer la qualité des données et ainsi être à même de conseiller des utilisateurs non-experts dans leur utilisation des données. Cette approche se base sur une structuration des données de qualité dans une base de données multidimensionnelle et une communication dynamique et contextuelle utilisant des indicateurs de qualité affichés dans un système SOLAP (Spatial On-Line Analytical Processing) combiné à un système d'information géographique.
40

Isambert, Aurélie. "Contrôle de qualité et optimisation de l'acquisition des données en imagerie multimodale pour la radiothérapie externe." Paris 11, 2009. http://www.theses.fr/2009PA11T006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Durand, Philippe. "Traitement des donnees radar varan et estimation de qualites en geologie, geomorphologie et occupation des sols." Paris 7, 1988. http://www.theses.fr/1988PA077183.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte sur l'exploitation thematique des donnees radar varan en geologie et l'occupation des sols. Les deux premieres parties passent en revue les pretraitements subis par l'image: elimination du bruit et corrections geometriques. Ces chapitres suivants exploitent l'analyse multisources, ainsi que les methodes issus de la morphologie mathematique et de l'analyse de texture
42

Merino, Laso Pedro. "Détection de dysfonctionements et d'actes malveillants basée sur des modèles de qualité de données multi-capteurs." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0056/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes navals représentent une infrastructure stratégique pour le commerce international et les activités militaires. Ces systèmes sont de plus en plus informatisés afin de réaliser une navigation optimale et sécurisée. Pour atteindre cet objectif, une grande variété de systèmes embarqués génèrent différentes informations sur la navigation et l'état des composants, ce qui permet le contrôle et le monitoring à distance. Du fait de leur importance et de leur informatisation, les systèmes navals sont devenus une cible privilégiée des pirates informatiques. Par ailleurs, la mer est un environnement rude et incertain qui peut produire des dysfonctionnements. En conséquence, la prise de décisions basée sur des fausses informations à cause des anomalies, peut être à l'origine de répercussions potentiellement catastrophiques.Du fait des caractéristiques particulières de ces systèmes, les méthodologies classiques de détection d'anomalies ne peuvent pas être appliquées tel que conçues originalement. Dans cette thèse nous proposons les mesures de qualité comme une potentielle alternative. Une méthodologie adaptée aux systèmes cyber-physiques a été définie pour évaluer la qualité des flux de données générés par les composants de ces systèmes. À partir de ces mesures, une nouvelle approche pour l'analyse de scénarios fonctionnels a été développée. Des niveaux d'acceptation bornent les états de normalité et détectent des mesures aberrantes. Les anomalies examinées par composant permettent de catégoriser les détections et de les associer aux catégories définies par le modèle proposé. L'application des travaux à 13 scénarios créés pour une plate-forme composée par deux cuves et à 11 scénarios pour deux drones aériens a servi à démontrer la pertinence et l'intérêt de ces travaux
Naval systems represent a strategic infrastructure for international commerce and military activity. Their protection is thus an issue of major importance. Naval systems are increasingly computerized in order to perform an optimal and secure navigation. To attain this objective, on board vessel sensor systems provide navigation information to be monitored and controlled from distant computers. Because of their importance and computerization, naval systems have become a target for hackers. Maritime vessels also work in a harsh and uncertain operational environments that produce failures. Navigation decision-making based on wrongly understood anomalies can be potentially catastrophic.Due to the particular characteristics of naval systems, the existing detection methodologies can't be applied. We propose quality evaluation and analysis as an alternative. The novelty of quality applications on cyber-physical systems shows the need for a general methodology, which is conceived and examined in this dissertation, to evaluate the quality of generated data streams. Identified quality elements allow introducing an original approach to detect malicious acts and failures. It consists of two processing stages: first an evaluation of quality; followed by the determination of agreement limits, compliant with normal states to identify and categorize anomalies. The study cases of 13 scenarios for a simulator training platform of fuel tanks and 11 scenarios for two aerial drones illustrate the interest and relevance of the obtained results
43

Claeyman, Marine. "Etude par modélisation et assimilation de données d'un capteur infrarouge géostationnaire pour la qualité de l'air." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1216/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse porte sur la définition d'un capteur géostationnaire infrarouge pour l'observation de la composition chimique de la basse troposphère et l'évaluation de la valeur ajoutée de cet instrument afin de caractériser la variabilité de la moyenne et basse troposphère des principaux polluants et d'améliorer l'observation et les prévisions de la qualité de l'air. Nous nous sommes intéressés à deux polluants importants: l'ozone troposphérique en raison de son impact sur la santé humaine, les écosystèmes et le climat, et le monoxyde de carbone (CO) qui est un traceur de pollution nous renseignant sur les sources d'émissions et les processus de transport. Dans un premier temps, une évaluation d'un schéma linéaire pour la chimie du CO a été effectuée sur une période d'un an et demi en comparaison avec un schéma chimique détaillé (RACMOBUS) et différents types d'observations troposphériques et stratosphériques (satellitaires, aéroportées). L'intérêt principal de ce schéma est son faible coût en temps de calcul qui permet une assimilation sur de longues périodes de jeux de données de CO. L'assimilation de données MOPITT (Measurements Of Pollution In The Troposphere) dans ce schéma a d'ailleurs permis d'évaluer la valeur ajoutée de données d'observations infrarouges à l'échelle globale. Ensuite, les caractéristiques optimales du capteur géostationnaire infrarouge ont été définies en réalisant des études d'inversion de spectres atmosphériques pour sonder l'ozone et le CO pour la qualité de l'air, le but étant d'avoir un capteur techniquement et économiquement faisable, capable de sonder la basse troposphère. Le contenu en information de cet instrument a été comparé, en période estivale, à l'information apportée par un autre instrument infrarouge géostationnaire similaire à MTG-IRS (Meteosat Third Generation - Infrared Sounder), optimisé pour la mesure de la vapeur d'eau et de la température mais capable d'avoir une information sur la composition chimique de l'atmosphère. Enfin dans une dernière partie, la valeur ajoutée de ces deux instruments dans le modèle de qualité de l'air MOCAGE, a été quantifiée en utilisant des expériences de simulation de système d'observations sur une période de deux mois d'été (juillet - août 2009). La capacité de ces deux instruments à corriger différentes sources d'erreurs (les forçages atmosphériques, les émissions, l'état initial et les trois paramètres réunis) qui affectent les prévisions et simulations de qualité de l'air, a été quantifiées. Au final, l'instrument que nous avons défini s'avère effectivement capable d'apporter une contrainte efficace sur les champs d'ozone et de CO dans la moyenne et basse troposphère
The objective of this thesis is to define a geostationary infrared sensor to observe the atmospheric composition of the lowermost troposphere. We evaluate the potential added value of such an instrument at characterizing the variability of the main pollutants and improving air quality observations and forecasts. We focus on two air quality key pollutants: tropospheric ozone, because of its impact on human health, ecosystems and climate; carbon monoxide (CO), which is a tracer of pollutants emissions. Firstly, an evaluation of a linear scheme for the CO chemistry during one year and a half has been performed in comparison with a detailed chemical scheme (RACMOBUS) and different tropospheric and stratospheric observations (satellite and aircraft data). The advantage of such a scheme is its low computational cost which allows data assimilation of CO during long periods. Assimilation of CO data from the Measurements Of Pollution In The Troposphere (MOPITT) instrument allows us to evaluate the information brought by such infrared observations at the global scale. Secondly, the optimal configuration of a new infrared geostationary sensor has been defined using retrieval studies of atmospheric spectra with the objectives to contribute to the monitoring of ozone and CO for air quality purposes; our constraint also set the ground for a sensor with technically feasible and affordable characteristics. For reference, the information content of this instrument has been compared during summer to the information content from another infrared geostationary instrument similar to MTG-IRS (Meteosat Third Generation - Infrared Sounder), optimized to monitor water vapour and temperature but with monitoring atmospheric composition as Lastly, the potential added value of both instruments for air quality prognoses has been compared using observing system simulation experiments (OSSEs) over two summer months (July - August 2009). The skill of the two instruments to correct different error sources (atmospheric forcing, emission, initial state and the three conditions together) affecting air quality simulations and forecasts, has been characterised. In the end, it is concluded that the instrument configuration proposed is effectively able to bring a constraint on ozone and CO fields in the mid-to-low troposphere
44

Pellay, François-Xavier. "Méthodes d'estimation statistique de la qualité et méta-analyse de données transcriptomiques pour la recherche biomédicale." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10058/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance des gènes exprimés dans une cellule, dans des conditions physiologiques ou pathologiques, est un élément essentiel à la compréhension des phénomènes biologiques qui la gouvernent. Parmi les technologies permettant de mesurer l'expression génique, la plus utilisée est la technologie des puces à ADN capable de mesurer l'abondance relative des gènes exprimés dans les cellules. Les puces qualifiées de pangénomiques sont supposées couvrir l'ensemble des gènes existants, soit près de trente-mille dans l'espèce humaine. La mesure, l'analyse et l'interprétation d'une telle quantité de données posent un certain nombre de problèmes et la maîtrise des méthodes d'analyse utilisées déterminera la fiabilité et la précision des informations obtenues. Le but de cette thèse est de définir des méthodes permettant de contrôler les mesures, d'améliorer l'analyse et d'approfondir l'interprétation des données transcriptomiques afin d'en optimiser l'utilisation et de pouvoir appliquer ces méthodes pour analyser le transcriptome de patient atteint de leucémie myélomonocytalre juvénile dans le but d'améliorer le diagnostic et de comprendre les mécanismes biologiques de cette maladie rare. Nous avons ainsi développé, et validé au travers de nombreux projets indépendants, un programme de contrôle qualité des puces, ainsi qu'un logiciel qui permet d'améliorer les interprétations biologiques des données microarrays basées sur les ontologies des gènes, et un outil de visualisation et d'analyse globale des voies de signalisation. Enfin, en combinant plusieurs des approches , décrites, nous avons mis au point une méthode pour obtenir des signatures biologiques fiables à des fins diagnostiques
To understand the biological phenomena taking place in a cell under physiological or pathological conditions, it is essential to know the genes that it expresses Measuring genetic expression can be done with DNA chlp technology on which are set out thousands of probes that can measure the relative abundance of the genes expressed in the cell. The microarrays called pangenomic are supposed to cover all existing proteincoding genes, that is to say currently around thirty-thousand for human beings. The measure, analysis and interpretation of such data poses a number of problems and the analytlcal methods used will determine the reliability and accuracy of information obtained with the microarrays technology. The aim of thls thesis is to define methods to control measures, improve the analysis and deepen interpretation of microarrays to optimize their utilization in order to apply these methods in the transcriptome analysis of juvenile myelomocytic leukemia patients, to improve the diagnostic and understand the biological mechanisms behind this rare disease. We thereby developed and validated through several independent studies, a quality control program for microarrays, ace.map QC, a software that improves biological Interpretations of microarrays data based on genes ontologies and a visualization tool for global analysis of signaling pathways. Finally, combining the different approaches described, we have developed a method to obtain reliable biological signatures for diagnostic purposes
45

Andrieu, Pierre. "Passage à l'échelle, propriétés et qualité des algorithmes de classements consensuels pour les données biologiques massives." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les médecins et biologistes sont régulièrement amenés à interroger des bases de données biologiques publiques, par exemple lorsqu’ils se renseignent sur les gènes les plus associés à une maladie donnée. Le mot-clé choisi au moment d’interroger la base de données est particulièrement important : plusieurs reformulations synonymes d’une même maladie (par exemple « breast cancer » et « breast carcinoma ») aboutissent à des classements parfois très différents pouvant aller jusqu’à plusieurs milliers de gènes. Certains gènes, triés par pertinence, peuvent se retrouver à égalité (importance égale vis-à-vis de la maladie). De plus, certains gènes retournés en utilisant certaines reformulations peuvent être absents lorsque d’autres reformulations sont choisies. On dit alors que les classements sont incomplets et avec égalités. L’enjeu est alors de combiner l’information apportée par ces différents classements de gènes. La problématique consistant à partir d’une liste de classements et de calculer un classement dit consensuel aussi représentatif que possible des classements d’entrée est appelée « agrégation de classements ». Ce problème est connu pour être NP-difficile. Alors que la majorité des travaux considèrent les classements complets et sans égalités, nous nous sommes placés dans le contexte des classements incomplets avec égalités. Nos contributions peuvent se décomposer en trois parties. Premièrement, nous avons conçu une heuristique basée sur des graphes qui consiste à partitionner le problème de départ en sous-problèmes indépendants pour le cas où les classements sont incomplets et avec égalités. Deuxièmement, nous avons conçu un algorithme capable de déterminer des points communs entre tous les classements consensuels optimaux, permettant ainsi de fournir à l’utilisateur une indication quant à la robustesse du classement consensuel renvoyé. Une étude expérimentale sur un grand nombre de jeux de données biologiques massifs a mis en évidence la pertinence biologique des résultats fournis par nos méthodes. La dernière contribution est la suivante : les données manquantes pouvant s’interpréter de différentes façons selon le contexte, nous avons proposé un modèle paramétré permettant de prendre en compte ces différences. Nous avons conçu des algorithmes pour ce modèle et fait une étude axiomatique de ce dernier en nous basant sur la théorie du choix social
Biologists and physicians regularly query public biological databases, for example when they are looking for the most associated genes towards a given disease. The chosen keyword are particularly important: synonymous reformulations of the same disease (for example "breast cancer" and "breast carcinoma") may lead to very different rankings of (thousands of) genes. The genes, sorted by relevance, can be tied (equal importance towards the disease). Additionally, some genes returned when using a first synonym may be absent when using another synonym. The rankings are then called "incomplete rankings with ties". The challenge is to combine the information provided by these different rankings of genes. The problem of taking as input a list of rankings and returning as output a so-called consensus ranking, as close as possible to the input rankings, is called the "rank aggregation problem". This problem is known to be NP-hard. Whereas most works focus on complete rankings without ties, we considered incomplete rankings with ties. Our contributions are divided into three parts. First, we have designed a graph-based heuristic able to divide the initial problem into independent sub-problems in the context of incomplete rankings with ties. Second, we have designed an algorithm able to identify common points between all the optimal consensus rankings, allowing to provide information about the robustness of the provided consensus ranking. An experimental study on a huge number of massive biological datasets has highlighted the biological relevance of these approaches. Our last contribution the following one : we have designed a parameterized model able to consider various interpretations of missing data. We also designed several algorithms for this model and did an axiomatic study of this model, based on social choice theory
46

Bothorel, Gwenael. "Algorithmes automatiques pour la fouille visuelle de données et la visualisation de règles d’association : application aux données aéronautiques." Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/13783/1/bothorel.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années, nous assistons à une véritable explosion de la production de données dans de nombreux domaines, comme les réseaux sociaux ou le commerce en ligne. Ce phénomène récent est renforcé par la généralisation des périphériques connectés, dont l'utilisation est devenue aujourd'hui quasi-permanente. Le domaine aéronautique n'échappe pas à cette tendance. En effet, le besoin croissant de données, dicté par l'évolution des systèmes de gestion du trafic aérien et par les événements, donne lieu à une prise de conscience sur leur importance et sur une nouvelle manière de les appréhender, qu'il s'agisse de stockage, de mise à disposition et de valorisation. Les capacités d'hébergement ont été adaptées, et ne constituent pas une difficulté majeure. Celle-ci réside plutôt dans le traitement de l'information et dans l'extraction de connaissances. Dans le cadre du Visual Analytics, discipline émergente née des conséquences des attentats de 2001, cette extraction combine des approches algorithmiques et visuelles, afin de bénéficier simultanément de la flexibilité, de la créativité et de la connaissance humaine, et des capacités de calculs des systèmes informatiques. Ce travail de thèse a porté sur la réalisation de cette combinaison, en laissant à l'homme une position centrale et décisionnelle. D'une part, l'exploration visuelle des données, par l'utilisateur, pilote la génération des règles d'association, qui établissent des relations entre elles. D'autre part, ces règles sont exploitées en configurant automatiquement la visualisation des données concernées par celles-ci, afin de les mettre en valeur. Pour cela, ce processus bidirectionnel entre les données et les règles a été formalisé, puis illustré, à l'aide d'enregistrements de trafic aérien récent, sur la plate-forme Videam que nous avons développée. Celle-ci intègre, dans un environnement modulaire et évolutif, plusieurs briques IHM et algorithmiques, permettant l'exploration interactive des données et des règles d'association, tout en laissant à l'utilisateur la maîtrise globale du processus, notamment en paramétrant et en pilotant les algorithmes.
47

Jallet, Roxane. "Splines de régression et splines de lissage en régression non paramétrique avec bruit processus." Paris 6, 2008. http://www.theses.fr/2008PA066054.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail de thèse, nous nous intéressons aux méthodes d’estimation d’une fonction de régression régulière bruitée par un processus, par les splines de lissage et les splines de régression. Dans le cadre du modèle à bruit processus, nous présentons les résultats de convergence asymptotique obtenus pour l’estimateur des splines de lisage et proposons une extension au cas de données déséquilibrées. Afin de construire les estimateurs des splines de régression dans le cadre du modèle à bruit processus, nous introduisons deux critères : les moindres carrés ordinaires et les moindres carrés généralisés. Nous étudions pour ces deux estimateurs des splines de régression, les vitesses de convergence et comparons les résultats obtenus. Enfin, nous mettons en œuvre des simulations pour comparer numériquement les différents estimateurs
In the present work, we are interested in estimation methods of a regular function with a processus noise by smoothing splines and regression splines. Convergence rates results for smoothing splines are presented in the case of processus noise and an extension for unbalanced data is proposed. In order to build the regression splines estimators, we introduce two criteria : ordinary least squares and generalized least squares. For these two regression splines estimators convergence rates are studied and compared. Finally, through simulations the various estimators are compared
48

Bergès, Corinne. "Étude de systèmes d'acquisitions de données dans deux milieux contraignants : expérimentation spatiale et prospection sismique." Toulouse, INPT, 1999. http://www.theses.fr/1999INPT026H.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'élément clé d'un système d'acquisition de données est le Convertisseur Analogique-Numérique (CAN). Les performances globales du système dépendent souvent de ce composant. Il s'agit alors de savoir choisir le CAN adapté, ou d'adopter le meilleur compromis possible. La première partie de la thèse décrit donc les différents principes de conversion, leurs avantages, leurs inconvénients. L'étude de l'acquisition de données en milieu spatial consiste en deux exemples d'expériences embarquées sur satellite. Le premier système réalise une mesure des spectres d'énergie des particules radiatives spatiales : sa difficulté consiste dans le préamplificateur de charge associé au détecteur à semi-conducteur. Les équations de ce préamplificateur sont posées, les principes de fonctionnement, justifiés. Une structure optimale en bande passante et rapport signal sur bruit est proposée. La deuxième expérience spatiale traitée est un micro-accéléromètre, dont on acquiert les données quasi-continues, à l'aide d'un convertisseur sigma-delta : ce type de CAN met en oeuvre deux notions essentielles qui sont le sur-échantillonage, suivi d'un filtre numérique décimateur, et la mise en forme du bruit, repoussé vers les hautes fréquences. Le principe de conversion sigma-delta est précisément étudié, pour optimiser la mise en oeuvre du composant choisi pour cette application. Une dernière partie traite de l'acquisition en prospection sismique, domaine difficile de par le niveau très faible des signaux (uV) et les contraintes extrêmes de chantier. Il faut choisir le capteur le mieux adapté et conditionner sa sortie de façon optimale. La réduction du bruit est un objectif constant. Après une présentation théorique du bruit sismique, quelques exemples sont traités, tels la préamplification faible bruit en sismique de puits et en sismique marine, le contrôle de la diaphonie sur les câbles de sismique terrestre de surface. Le CAN typique, mis en oeuvre en sismique, est d'architecture sigme-delta.
49

Veron, Didier. "Utilisation des FADC pour la reconstruction et l'analyse des données de bruit de fond dans l'expérience neutrino de Chooz." Lyon 1, 1997. http://www.theses.fr/1997LYO10074.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente un travail effectue dans le cadre de l'experience de chooz, qui recherche des oscillations de neutrinos a 1 km de deux reacteurs nucleaires. Les anti-neutrinos emis par les reacteurs sont detectes grace au positron et au neutron produits par la reaction de desintegration beta-inverse. Le neutron est observe par sa capture sur des atomes de gadolinium. Celle-ci libere en moyenne 8 mev sous forme de gammas. Une premiere partie a consiste a etudier la reconstruction du point d'interaction des evenements en utilisant le programme de simulation geant. Nous avons montre, par exemple, que des precisions de 10 cm sur le positron et de 20 cm sur le neutron etaient possibles. Puis, une analyse des donnees de calibration du detecteur, enregistrees par des flash adc, a ete menee. Cela nous a permis de verifier le bon accord des donnees et du monte-carlo, notamment sur la precision de la reconstruction, mais aussi sur deux des parametres de l'experience que sont le temps de capture moyen du neutron sur le gadolinium et la probabilite de cette capture. Enfin, une etude du bruit de fond, reacteurs arretes, a ete effectuee. Pour ce faire, nous avons choisi des coupures hors lignes, l'une d'entre elles utilise les algorithmes de localisation. Ces coupures ont ete validees grace a une source de californium mais aussi par un ensemble de neutrons cosmiques. Le bruit de fond ainsi obtenu est de 2 a 3 evenements par jour, il est donc pres de 10 fois inferieur au signal attendu. Dans cette meme analyse, nous avons tente d'expliquer la nature de ce bruit en donnant des taux de composante fortuite et correlee.
50

Petit, Laurent. "Etude de la qualité des données pour la représentation des réseaux techniques urbains : applications au réseau d'assainissement." Artois, 1999. http://www.theses.fr/1999ARTO0203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mise en place de la BDU ou de SIG nécessite de nombreuses données d'un coût très conséquent. La cause essentielle de ce coût important est l'énorme masse d'informations à emmagasiner, mais également la précision de ces données. Nous nous sommes alors demandés si l'acquisition de données précises était nécessaire vis-à-vis de leur utilité. Nous avons donc décidé de tester l'influence de la précision des données sur un domaine porteur qui est l'assainissement. Nous allons plus particulièrement nous intéresser aux simulations hydrauliques par le modèle Muskingum, des réseaux d'assainissement. Notre choix s'est fixé sur les coordonnées planimétriques et altimétriques décrivant les réseaux, mais nous avons également voulu tester un paramètre qui était très souvent inconnu : la rugosité des conduites. Nous avons tout d'abord mis au point une méthode de comparaison entre un réseau comportant des données correctes, et un réseau composé de données imprécises. Cette méthode nous a permis de montrer que de fortes imprécisions en planimétrie n'influençaient guère les débits. Par contre des imprécisions en altimétrie ou une rugosité engendraient de plus ou moins grosses fluctuations. Nous avons également déterminé que l'évolution des écarts obtenus dépendait essentiellement de la pente des réseaux et de l'intensité de la pluie utilisée : plus la pente ou la pluie étaient faibles, plus les écarts étaient importants. Nous avons ensuite comparé les écarts obtenus en introduisant des imprécisions à ceux obtenus en comparant les modèles BSV et Muskingum, et nous avons montré que le choix du modèle n'était pas forcément prioritaire vis-à-vis de la qualité des données, lorsque nous avions des valeurs faibles pour les pentes ou la ramification des réseaux, le taux de remplissage ou le taux de parcours. Nous terminons notre étude sur différentes perspectives envisageables : généralisation des réseaux types à des réseaux réels, étude de sensibilité des imprécisions des données pour un autre modèle

To the bibliography