To see the other types of publications on this topic, follow the link: Exploitation des données.

Dissertations / Theses on the topic 'Exploitation des données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Exploitation des données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ba, Mouhamadou Lamine. "Exploitation de la structure des données incertaines." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0013.

Full text
Abstract:
Cette thèse s’intéresse à certains problèmes fondamentaux découlant d’un besoin accru de gestion des incertitudes dans les applications Web multi-sources ayant de la structure, à savoir le contrôle de versions incertaines dans les plates-formes Web à large échelle, l’intégration de sources Web incertaines sous contraintes, et la découverte de la vérité à partir de plusieurs sources Web structurées. Ses contributions majeures sont : la gestion de l’incertitude dans le contrôle de versions de données arborescentes en s’appuyant sur un modèle XML probabiliste ; les étapes initiales vers un système d’intégration XML probabiliste de sources Web incertaines et dépendantes ; l’introduction de mesures de précision pour les données géographiques et ; la conception d’algorithmes d’exploration pour un partitionnement optimal de l’ensemble des attributs dans un processus de recherche de la vérité sur des sources Web conflictuelles
This thesis addresses some fundamental problems inherent to the need of uncertainty handling in multi-source Web applications with structured information, namely uncertain version control in Web-scale collaborative editing platforms, integration of uncertain Web sources under constraints, and truth finding over structured Web sources. Its major contributions are: uncertainty management in version control of treestructured data using a probabilistic XML model; initial steps towards a probabilistic XML data integration system for uncertain and dependent Web sources; precision measures for location data and; exploration algorithms for an optimal partitioning of the input attribute set during a truth finding process over conflicting Web sources
APA, Harvard, Vancouver, ISO, and other styles
2

Arnaud, Bérenger. "Exploitation et partage de données hétérogènes et dynamiques." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20025/document.

Full text
Abstract:
Dans un contexte de données industrielles et numériques, le développement d'un outil sur mesure pour une tâche particulière est couteux par de nombreux aspects. À l'inverse, l'adaptation d'outils génériques l'est également en particularisation (personnalisation, adaptation, extension, …), pour les développeurs comme pour les utilisateurs finaux. Nos approches visent à considérer les différents niveaux d'interactions pour améliorer l'exploitation des données fournies ou générées en collaboration.Les définitions et problématiques liées aux données dépendent le plus souvent des domaines dans lesquelles elles sont traitées. Pour ce travail, nous avons opté pour une approche holistique considérant ensemble des perspectives différentes. Le résultat est une synthèse des concepts émergeant montrant les équivalences d'un domaine à l'autre. La première contribution consiste à améliorer le marquage collaboratif de documents. Deux améliorations sont proposées par notre outil Coviz. (1) L'étiquetage des ressources est propre à chaque utilisateur qui organise ses vocables par une poly-hiérarchie nominative. Chacun peut considérer les concepts des autres par une relation de partage. Le système fournit également du contenu connexe via un moissonnage des archives ouvertes. (2) L'outil applique le concept de facette des données à l'interface puis les combine avec une recherche par mot-clé. Ce dernier point est commun à tous les utilisateurs, le système considère chacune des actions individuelles comme celles d'un groupe.La contribution majeure, confidentielle, est un framework baptisé DIP pour Data Interaction and Presentation. Son but est d'augmenter la liberté d'expression de l'utilisateur sur l'interaction et l'accès aux données. Il diminue les contraintes machines et logicielles en adjoignant une nouvelle voix d'accès direct entre l'utilisateur et les données disponibles, ainsi que des points d'« articulation » génériques. D'un point de vue final, l'utilisateur gagne en expression de filtrage, en partage, en maintien de l'état de sa navigation, en automatisation de ses tâches courantes, etc.Il a été testé en condition réelle de stress, de ressources et d'utilisation avec le logiciel KeePlace. Ce dernier a d'ailleurs été l'initiateur de cette thèse
In the context of numeric data, the software development costs entail a number of cost factors. In contrast, adapting generic tools has its own set of costs, requiring developer's integration and final user's adaptation. The aim of our approach is to consider the different points of interaction with the data to improve the exploitation of data, whether provided or generated from collaboration.The definitions and problems related to data are dependent upon the domain from which the data come and the treatment that have been applied to them. In this work we have opted for a holistic approach where we consider the range of angles. The result is a summary of the emergent concepts and domain equivalences.The first contribution consists of improving collaborative document mark-up. Two improvements are proposed by out tool – Coviz –. 1) Resource tagging which is unique to each user, who organises their own labels according to their personal poly-hierarchy. Each user may take into consideration other users approaches through sharing of tags. The system supplies additional context through a harvesting of documents in open archives. 2) The tool applies the concept of facets to the interface and then combines them to provide a search by keyword or characteristic selection. This point is shared by all users and the actions of an individual user impact the whole group.The major contribution, which is confidential, is a framework christened DIP for Data Interaction and Presentation. Its goal is to increase the freedom of expression of the user over the interaction and access to data. It reduces the hardware and software constrains by adding a new access point between the user and the raw data as well as generic pivots. From a final point of view the user gains in expression of filtering, in sharing, in state persistence of the navigator, in automation of day-to-day tasks, etc.DIP has been stress tested under real-life conditions of users and limited resources with the software KeePlace. Acknowledgement is given to KeePlace who initiated this thesis
APA, Harvard, Vancouver, ISO, and other styles
3

Khelil, Amar. "Elaboration d'un système de stockage et exploitation de données pluviométriques." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0034.

Full text
Abstract:
Du point de vue hydrologique, l'agglomération lyonnaise peut être caractérisée comme un bassin versant d'une surface de 600 km2 drainé par quelque deux mille kilomètres de canalisations. Pour assurer la gestion et l’ extension d'un tel réseau, des outils informatiques ont été conçus au Laboratoire Méthodes de l'INSA de Lyon en collaboration avec le Service Assainissement de la COURLY et la société d'informatique communale ICARE, notamment le logiciel SERAIL, qui permet une simulation généralisée du fonctionnement du réseau lyonnais. Or, un des points faibles du système consiste en une connaissance insuffisamment précise des phénomènes pluvieux d'origine convective lesquels sont le plus susceptibles de provoquer des dysfonctionnements du réseau. Il a ainsi été décidé d'implanter, dès 1983, un réseau de 30 pluviomètres enregistreurs sur le territoire communautaire, avec l'appui financier du Plan Urbain et de l'Agence Financière de Bassin Rhône-Méditerranée-Corse. Le mémoire présente le travail effectué sur cette expérimentation suivant trois étapes principales : 1) implantation du réseau et ses caractéristiques ; 2) élaboration d'un système de dépouillement et d'archivage des données ; 3) élaboration d'un système de traitement des données. L'aspect le plus original du travail concerne le traitement des données. Un ensemble de logiciels permet d'exhiber et d’étudier tout séquence pluvieuse reconnue intéressante par l'hydrologue urbain. Deux objectifs ont été poursuivis : 1) obtenir une meilleure perception (intuition) des phénomènes considérés (aspect représentation brute des mesures) ; 2) construire des outils de modélisation des phénomènes. Ce deuxième objectif a nécessité une réflexion pour déterminer notamment la pertinence des modèles proposés ou leur limite de validité, réflexion qui a débouché sur l'élaboration de logiciels supplémentaires de vérifications et comparaisons des modèles utilisés (numériques ou graphiques). Un exemple complet des traitements, pour une pluie choisie, est donné, ainsi que le type de conclusions auxquelles ils permettent de parvenir
The Lyon District Urban Area (CO. UR. LY. ) may be explained from an hydrological point of view as a 600 km2 area equipped with a sewerage system estimated by 2 000 km of pipes. Due to the complexity of the sewerage network of the area, it must therefore be controlled by an accurate and reliable system of calculation to avoid any negative consequences of its function. The capacity of the present computerising system SERAIL, allows an overall simulation of the functioning of drainage / sewerage system. This model requires an accurate information of the rainfall rate which was not previously available. Therefore a 30 rain gages network (with cassette in sit recording) was set up within the Urban District Area in 1983. This research however introduces the experiment of three steps: 1) to install the network; 2) to build up a data checking and storage system; 3) to analyse the data. The characteristic nature of this work deals with the data analysis system. It allows to extract easily and analyse any rainfall event important to the hydrologist. Two aims were defined: 1) to get a better understanding of the phenomena (punctual representations ); 2) to build up models. In order to achieve the second aim, it was necessary to think about the fitting of the propounded models and their limits which led to the setting up of several other programmes for checking and comparison. For example a complete analysis of a rainfall event is given with comments and conclusion
APA, Harvard, Vancouver, ISO, and other styles
4

Ponchateau, Cyrille. "Conception et exploitation d'une base de modèles : application aux data sciences." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2018. http://www.theses.fr/2018ESMA0005/document.

Full text
Abstract:
Les sciences expérimentales font régulièrement usage de séries chronologiques, pour représenter certains des résultats expérimentaux, qui consistent en listes chronologiques de valeurs (indexées par le temps), généralement fournies par des capteurs reliés à un système (objet de l’expérience). Ces séries sont analysées dans le but d’obtenir un modèle mathématique permettant de décrire les données et ainsi comprendre et expliquer le comportement du système étudié. De nos jours, les technologies de stockage et analyse de séries chronologiques sont nombreuses et matures, en revanche, quant au stockage et à la gestion de modèles mathématiques et leur mise en lien avec des données numériques expérimentales, les solutions existantes sont à la fois récentes, moins nombreuses et moins abouties. Or,les modèles mathématiques jouent un rôle essentiel dans l’interprétation et la validation des résultats expérimentaux. Un système de stockage adéquat permettrait de faciliter leur gestion et d’améliorer leur ré-utilisabilité. L’objectif de ce travail est donc de développer une base de modèles permettant la gestion de modèle mathématiques et de fournir un système de « requête par les données », afin d’aider à retrouver/reconnaître un modèle à partir d’un profil numérique expérimental. Dans cette thèse, je présente donc la conception (de la modélisation des données, jusqu’à l’architecture logicielle) de la base de modèles et les extensions qui permettent de réaliser le système de « requête par les données ». Puis, je présente le prototype de la base de modèle que j’ai implémenté, ainsi que les résultats obtenus à l’issu des tests de ce-dernier
It is common practice in experimental science to use time series to represent experimental results, that usually come as a list of values in chronological order (indexed by time) and generally obtained via sensors connected to the studied physical system. Those series are analyzed to obtain a mathematical model that allow to describe the data and thus to understand and explain the behavio rof the studied system. Nowadays, storage and analyses technologies for time series are numerous and mature, but the storage and management technologies for mathematical models and their linking to experimental numerical data are both scarce and recent. Still, mathematical models have an essential role to play in the interpretation and validation of experimental results. Consequently, an adapted storage system would ease the management and re-usability of mathematical models. This work aims at developing a models database to manage mathematical models and provide a “query by data” system, to help retrieve/identify a model from an experimental time series. In this work, I will describe the conception (from the modeling of the system, to its software architecture) of the models database and its extensions to allow the “query by data”. Then, I will describe the prototype of models database,that I implemented and the results obtained by tests performed on the latter
APA, Harvard, Vancouver, ISO, and other styles
5

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0014.

Full text
Abstract:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
APA, Harvard, Vancouver, ISO, and other styles
6

De, Vettor Pierre. "A Resource-Oriented Architecture for Integration and Exploitation of Linked Data." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1176/document.

Full text
Abstract:
Cette thèse porte sur l'intégration de données brutes provenant de sources hétérogènes sur le Web. L'objectif global est de fournir une architecture générique et modulable capable de combiner, de façon sémantique et intelligente, ces données hétérogènes dans le but de les rendre réutilisables. Ce travail est motivé par un scenario réel de l'entreprise Audience Labs permettant une mise à l'échelle de cette architecture. Dans ce rapport, nous proposons de nouveaux modèles et techniques permettant d'adapter le processus de combinaison et d'intégration à la diversité des sources de données impliquées. Les problématiques sont une gestion transparente et dynamique des sources de données, passage à l'échelle et responsivité par rapport au nombre de sources, adaptabilité au caractéristiques de sources, et finalement, consistance des données produites(données cohérentes, sans erreurs ni doublons). Pour répondre à ces problématiques, nous proposons un méta-modèle pour représenter ces sources selon leurs caractéristiques, liées à l'accès (URI) ou à l'extraction (format) des données, mais aussi au capacités physiques des sources (latence, volume). En s'appuyant sur cette formalisation, nous proposent différentes stratégies d'accès aux données, afin d'adapter les traitements aux spécificités des sources. En se basant sur ces modèles et stratégies, nous proposons une architecture orientée ressource, ou tout les composants sont accessibles par HTTP via leurs URI. En se basant sur les caractéristiques des sources, sont générés des workflows d'exécution spécifiques et adapté, permettant d'orchestrer les différentes taches du processus d'intégration de façon optimale, en donnant différentes priorités à chacune des tâches. Ainsi, les temps de traitements sont diminuées, ainsi que les volumes des données échangées. Afin d'améliorer la qualité des données produites par notre approches, l'accent est mis sur l'incertitude qui peut apparaître dans les données sur le Web. Nous proposons un modèle, permettant de représenter cette incertitude, au travers du concept de ressource Web incertaines, basé sur un modèle probabiliste ou chaque ressource peut avoir plusieurs représentation possibles, avec une certaine probabilité. Cette approche sera à l'origine d'une nouvelle optimisation de l'architecture pour permettre de prendre en compte l'incertitude pendant la combinaison des données
In this thesis, we focus on data integration of raw data coming from heterogeneous and multi-origin data sources on the Web. The global objective is to provide a generic and adaptive architecture able to analyze and combine this heterogeneous, informal, and sometimes meaningless data into a coherent smart data set. We define smart data as significant, semantically explicit data, ready to be used to fulfill the stakeholders' objective. This work is motivated by a live scenario from the French {\em Audience Labs} company. In this report, we propose new models and techniques to adapt the combination and integration process to the diversity of data sources. We focus on transparency and dynamicity in data source management, scalability and responsivity according to the number of data sources, adaptability to data source characteristics, and finally consistency of produced data (coherent data, without errors and duplicates). In order to address these challenges, we first propose a meta-models in order to represent the variety of data source characteristics, related to access (URI, authentication) extraction (request format), or physical characteristics (volume, latency). By relying on this coherent formalization of data sources, we define different data access strategies in order to adapt access and processing to data source capabilities. With help form these models and strategies, we propose a distributed resource oriented software architecture, where each component is freely accessible through REST via its URI. The orchestration of the different tasks of the integration process can be done in an optimized way, regarding data source and data characteristics. This data allows us to generate an adapted workflow, where tasks are prioritized amongst other in order to fasten the process, and by limiting the quantity of data transfered. In order to improve the data quality of our approach, we then focus on the data uncertainty that could appear in a Web context, and propose a model to represent uncertainty in a Web context. We introduce the concept of Web resource, based on a probabilistic model where each resource can have different possible representations, each with a probability. This approach will be the basis of a new architecture optimization allowing to take uncertainty into account during our combination process
APA, Harvard, Vancouver, ISO, and other styles
7

Fournier, Jonathan. "Exploitation de données tridimensionnelles pour la cartographie et l'exploration autonome d'environnements urbains." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24421/24421.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lê, Laetitia Minh Mai. "Exploitation des données spectrales dans la sécurisation du circuit des médicaments anticancéreux." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112148/document.

Full text
Abstract:
La plupart des médicaments anticancéreux sont des substances à marge thérapeutique étroite, les erreurs médicamenteuses peuvent avoir des conséquences majeures pour les patients. Il est de la responsabilité pharmaceutique de garantir le bon médicament à la bonne dose par la mise en place d’un contrôle qualité des préparations avant administration. Par ailleurs, ces molécules potentiellement cancérogènes, mutagènes et reprotoxiques présentent un risque pour les personnes exposées notamment le personnel de santé. L’objectif de ce travail de thèse a été de développer des outils permettant d’optimiser la sécurité du circuit de ces médicaments anticancéreux à l’hôpital tant pour le patient que pour le personnel de santé. Des outils analytiques associés à des méthodes d’interprétation des données issues de la chimiométrie et de la gestion de risque ont été mis en œuvre afin de répondre à cette problématique.Dans le cadre de la sécurisation du personnel, la recherche de traces de molécules anticancéreuses dérivées du platine a permis de mettre en évidence les zones les plus contaminées. Sur la base de ces contaminations et des conditions de travail, une méthodologie d’analyse de risque multicritère a été développée pour évaluer le risque d’exposition du personnel. Face au risque encouru, différentes mesures correctives ont été envisagées et des études évaluant plus spécifiquement l’efficacité détergente des opérations de décontamination des surfaces et des flacons ont été menées.En parallèle, des essais visant à sécuriser les préparations avant administration ont été conduits sur deux molécules anticancéreuses : le 5-fluorouracile et la gemcitabine. Au regard de leur caractère non destructif, non invasif et de ce fait, plus sécurisé, les spectroscopies vibrationnelles Raman et proche infrarouge ont été explorées. Les données spectrales (zones spectrales et prétraitements) ont été optimisées par des analyses multivariées ComDim pour développer des modèles de régression PLS prédisant la concentration en principe actif en solution. Les résultats ont montré la faisabilité et la complémentarité des techniques de spectroscopie Raman et proche infrarouge pour la détermination quantitative des molécules anticancéreuses
Most of the anticancer drugs are defined by a narrow therapeutic margin; therefore medical errors can have major consequences on patients. Thus, it’s necessary to guarantee the good drug at the good dose by the implementation of a quality control of the preparation before administration. These potentially carcinogenic, mutagenic or teratogenic drugs present a risk for exposed people especially healthcare workers.The aim of this study was to develop tools which can optimize the safety of the cytotoxic medication circuit in hospitals, for the patient as much as for healthcare workers. In order to respond to these problematics, analytical tools have been associated with different methods of data interpretation of chemometric and risk management.To improve healthcare workers’ safety, environmental monitoring looking for traces of platinum compound cytotoxic drugs were performed to identify the most contaminated areas. Based on these contaminations and working conditions, a methodology of multi-criteria risk analysis has been developed to quantify the risk of exposure of healthcare workers. Regarding the risk, various corrective measures were considered. Thus, studies based on the detergent efficiency of decontamination protocols used to clean workplace surfaces and cytotoxic vials were conducted.In parallel, assays were performed on two anticancer molecules to secure cytotoxic preparations before administration: 5-fluorouracile and gemcitabine. Regarding their non-destructive, non-invasive properties and therefore, more secured handling, Raman and near infrared spectroscopy were explored. Spectral data (spectral zones and pretreatments) were optimized by multivariate analyses ComDim to develop models of regression PLS predicting the concentration of the active ingredient in solution. Results showed the feasibility and the complementarity of these two spectroscopies in the quantitative determination of the cytotoxic drugs.These works participate in the continuous approach of quality assurance implemented in numerous health institutions. We hope that they will contribute to durably decrease risks associated to cytotoxic drugs for both patients and healthcare workers
APA, Harvard, Vancouver, ISO, and other styles
9

Correa, Beltran William. "Découverte et exploitation de proportions analogiques dans les bases de données relationnelles." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S110/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons aux proportions analogiques dans le contexte des bases de données relationnelles. Les proportions analogiques permettent de lier quatre éléments dans une relation du type ''A est à B ce que C est à D''. Par exemple, « Paris est à la France ce que Rome est à l'Italie ». Nous avons étudié le problème de la prédiction de valeurs manquantes dans une base de données en utilisant les proportions analogiques. Un algorithme de classification fondé sur les proportions analogiques a été modifié afin de résoudre ce problème. Puis, nous avons étudié les propriétés des éléments appartenant à l'ensemble d'apprentissage des classificateurs analogiques fréquemment exploités pour calculer la prédiction. Ceci nous a permis de réduire considérablement la taille de cet ensemble par élimination des éléments peu pertinents et par conséquent, de diminuer les temps d'exécution de ces classificateurs. La deuxième partie de la thèse a pour objectif de découvrir de nouveaux patrons basés sur la relation d'analogie, i.e., des parallèles, dans les bases de données. Nous avons montré qu'il est possible d'extraire ces patrons en s'appuyant sur des approches de clustering. Les clusters produits par de telles techniques présentent aussi un intérêt pour l'évaluation de requêtes recherchant des patrons d'analogie dans les bases de données. Dans cette perspective, nous avons proposé d'étendre le langage de requêtes SQL pour pouvoir trouver des quadruplets d'une base de données satisfaisant une proportion analogique. Nous avons proposé différentes stratégies d'évaluation pour de telles requêtes, et avons comparé expérimentalementleurs performances
In this thesis, we are interested in the notion of analogical proportions in a relational database context. An analogical proportion is a statement of the form “A is to B as C is to D”, expressing that the relation beween A and B is the same as the relation between C and D. For instance, one may say that “Paris is to France as Rome is to Italy”. We studied the problem of imputing missing values in a relational database by means of analogical proportions. A classification algorithm based on analogical proportions has been modified in order to impute missing values. Then, we studied how analogical classifiers work in order to see if their processing could be simplified. We showed how some typeof analogical proportions is more useful than the others when performing classification. We then proposed an algorithm using this information, which allowed us to considerably reduce the size of the training set used by the analogical classificationalgorithm, and hence to reduce its execution time. In the second part of this thesis, we payed a particular attention to the mining of combinations of four tuples bound by an analogical relationship. For doing so, we used several clustering algorithms, and we proposed some modifications to them, in order tomake each obtained cluster represent a set of analogical proportions. Using the results of the clustering algorithms, we studied how to efficiently retrieve the analogical proportions in a database by means of queries. For doing so, we proposed to extend the SQL query language in order to retrieve from a database the quadruples of tuples satisfying an analogical proportion. We proposed severalquery evaluation strategies and experimentally compared their performances
APA, Harvard, Vancouver, ISO, and other styles
10

Procopio, Pietro. "Foreground implications in the scientific exploitation of CMB data." Paris 7, 2009. http://www.theses.fr/2009PA077252.

Full text
Abstract:
La première partie de mon travail de thèse se concentre sur la fonction de distribution des photons CMB. En particulier, je montre les implémentations et les phases actualisantes caractérisantes un code d'intégration numérique (KYPRIX) pour la solution de l'équation de Kompaneets dans le contexte cosmologique. Elles ont été aussi exécutées des implémentations physiques: l'introduction de la constante cosmologique dans les équations consacrées pour calculer l'évolution de l'Univers primordial; le choix des abondances chimiques primordiales de H et de He maintenant est possible; les fractions de ionisation pour les espèces impliquées ont été introduites dans les processus physiques; il a été créé une interface optionnelle qui relie KYPRSX avec les codes, comme RECFAST, pour calculer une histoire de recombinaison de la fraction de ionisation de H et de He. Pendant mon deuxième stage à APC j'ai exécuté plusieurs épreuves sur le Planck Sky Model. Les épreuves ont impliqué les deux dernières réalisations du modèle d'émission Galactique, les cartes de foregrounds Galactique tirées par les datus de WMAP et une carte propre de anisotropy du CMB. La dernière réalisation du PSM de la prédiction d'intensité totale des processus Galactiques a montré des résultats en harmonie avec les précédents pour presque toutes les fréquences évaluées, pendant que cela a besoin encore de quelques implémentations à 23 GHz, o l'émission de synchrotron et l'émission de free-free sont plus prominents. J'ai utilisé SM1CA et un autre filtre (le filtre de FFT) que j'ai développé, pour un retraitement de l'IRIS mapset. Les améliorations dramatiques obtenues sur les cartes d'IRIS sont clairement visibles juste par l'oeil
The first part of my thesis work focus on the CMB photon distribution function. I show the implementations and the updating phases characterizing a numerical integration code (KYPRIX) for the solution of the Kompaneets equation in cosmological context. Physical implementations were also performed: the introduction of the cosmological constant; the choice of the primordial chemical abundances of H and He is now possible; the ionization fractions for the species involved have been introduced; it was created an optional interface that links KYPRIX with codes, like RECFAST, in order to calculate a recombination history of the ionization fraction of H and He. Ail of the physical implementations contributed to perform more realistic simulation of the spectral distortion of the CMB. During my second stage at APC I performed several tests on the Planck Sky Model. The tests involved the latest two release of Galactic emission model, the Galactic foreground template derived by WMAP data and a clean CMB anisotropy map. The last release of the PSM total intensity prediction of the Galactic processes showed results consistent with the previous ones for almost ail the frequencies tested, while it still needs some tuning at 23 GHz, where synchrotron emission and free-free emission are more prominent. I started using SMICA (component separation techniques) during my first stage at APC, in 2007. 1 used SMICA, and another filter (FFT filter) I developed, for a reprocessing of the IRIS mapset. A FFT filter was developed for this purpose and I used the filter only on localized regions, not on the full-sky maps. The dramatic improvements obtained on the IRIS maps are clearly visible just by eye
APA, Harvard, Vancouver, ISO, and other styles
11

Chauris, Hervé. "Exploitation de la cohérence locale des données sismiques pour l'imagerie du sous-sol." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00535531.

Full text
Abstract:
Mes travaux de recherche s'inscrivent dans l'imagerie sismique des premiers kilomètres du sous-sol, en particulier dans le domaine pétrolier. Il s'agit de reconstruire les propriétés de la sub-surface, par exemple la vitesse de propagation des ondes de compression, à partir d'enregistrements en surface de déplacements ou de variations de la pression liés au passage d'un train d'ondes acoustiques ou élastiques. Je me suis attaché, dans ce domaine, à regarder différemment les données sismiques. Les enregistrements sismiques dépendent de la position de source et d'un ensemble de récepteurs, ainsi que du temps d'enregistrement. Ils sont couramment analysés trace par trace, par exemple pour filtrer les données ou bien pour les migrer, c'est-à-dire retrouver en profondeur les perturbations du milieu, typiquement avec des migrations de type Kirchhoff. Dans le cas de la migration dite "reverse-time migration", les points de tir sont vus comme un ensemble : l'information de tous les récepteurs est rétro-propagée depuis la surface jusqu'en profondeur, également pour retrouver les propriétés du milieu. Je propose de considérer des groupes de traces adjacentes, autour d'une fenêtre en temps, et d'examiner différents algorithmes d'imagerie sous cet aspect. L'aspect cohérence locale est justifié dans le domaine pétrolier par les acquisitions actuelles qui sont de plus en plus denses, et aussi par la notion de zone de Fresnel. La cohérence latérale des signaux sismiques est traitée sous deux angles. Le premier donne une vision très épurée : les événements localement cohérents sont décrits en 2D par la position de la trace centrale, une position dans la trace, et une pente qui indique la cohérence. Je montre qu'à partir de ce type d'approche, il est possible de retrouver les grandes longueurs d'onde du modèle de vitesse par analyse de vitesse dans le domaine migré. J'ai pu aussi établir le lien entre cette méthode d'analyse de vitesse et la tomographie de pente. Le second angle d'attaque prend en compte la signature des données sismiques, et en particulier la bande passante limitée. Les applications sont alors beaucoup plus nombreuses : migration, analyse de vitesse, sensibilité de l'image migrée par rapport au modèle de vitesse, et d'autres tâches liées au pré-traitement comme le débruitage, la prédiction des multiples, ... Dans chacun des cas, j'analyse les avantages et limitations de l'utilisation de la cohérence locale. Il s'avère que le choix du code de décomposition en événements locaux (``curvelets'', ...) est étroitement lié à l'application qui en est faite : si l'objectif est de comprimer les données sismiques, alors les curvelets ne sont pas adaptées. S'il s'agit au contraire de savoir comment l'image migrée dépend du choix du modèle de vitesse pris pour la migration, alors les curvelets ont beaucoup d'avantages. Plus particulièrement, les curvelets offrent la flexibilité de la décomposition des données, très utile pour la suppression des bruits cohérents. De plus, elles diagonalisent presque l'opérateur de démigration/migration qui donne la sensibilité de l'image migrée par rapport au choix du modèle de vitesse. Enfin, elles permettent d'exploiter l'aspect multi-échelle des données, avec des applications sur la suppression de l'aliasing. Je montre aussi qu'il est possible de développer d'autres schémas de décomposition et de reconstruction, comme par exemple les ``circlets''. Dans les perspectives de recherche, je tiens à dépasser le cadre asymptotique hautes fréquences dans lequel les curvelets trouvent un cadre naturel. Je propose en particulier une nouvelle formulation du problème d'inversion des formes d'onde (DFWI, Differential Full WaveForm Inversion). Cette méthode se veut générale pour retrouver les propriétés du sous-sol et permettre une optimisation locale, tout en s'affranchissant de la détermination d'un modèle de départ très proche de la solution. Cette idée doit être approfondie. Elle exploite la cohérence locale des données sismiques et suppose que le signal est bien échantillonné en temps et en espace. Les applications sont très nombreuses et touchent le domaine pétrolier, la géotechnique, la sismologie globale et régionale.
APA, Harvard, Vancouver, ISO, and other styles
12

El, Sarraj Lama. "Exploitation d'un entrepôt de données guidée par des ontologies : application au management hospitalier." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4331.

Full text
Abstract:
Cette recherche s'inscrit dans le domaine de la personnalisation d'Entrepôt de Données (ED) et concerne l'aide à l'exploitation d'un ED. Nous intéressons à l'assistance à apporter à un utilisateur lors d'une analyse en ligne, dans son utilisation de ressources d'exploitation existantes. Le domaine d'application concerné est la gestion hospitalière, dans le cadre de la nouvelle gouvernance, et en se limitant au périmètre du Programme de Médicalisation des Systèmes d'Information (PMSI). Cette recherche a été supportée par l'Assistance Publique des Hôpitaux de Marseille (APHM). L'approche retenue pour développer une telle assistance à l'utilisateur d'ED est sémantique et guidée par l'usage d'ontologies. Le système d'assistance mettant en oeuvre cette approche, nommé Ontologies-based Personalization System (OPS), s'appuie sur une Base de Connaissances (BC) exploitée par un moteur de personnalisation. La BC est composée des trois ontologies : de domaine, de l'ED et des ressources. Le moteur de personnalisation permet d'une part une recherche personnalisée de ressources d'exploitation de l'ED en s'appuyant sur le profil de l'utilisateur, et d'autre part pour une ressource particulière, une recommandation de ressources complémentaires selon trois stratégies possibles. Afin de valider nos propositions, un prototype du système OPS a été développé avec un moteur de personnalisation a été implémenté en Java et exploitant une base de connaissance constituée des trois ontologies en OWL interconnectées. Nous illustrons le fonctionnement de notre système sur trois scenarii d'expérimentation liés au PMSI et définis avec des experts métiers de l'APHM
This research is situated in the domain of Data Warehouses (DW) personalization and concerns DW assistance. Specifically, we are interested in assisting a user during an online analysis processes to use existing operational resources. The application of this research concerns hospital management, for hospitals governance, and is limited to the scope of the Program of Medicalization of Information Systems (PMSI). This research was supported by the Public Hospitals of Marseille (APHM). Our proposal is a semantic approach based on ontologies. The support system implementing this approach, called Ontology-based Personalization System (OPS), is based on a knowledge base operated by a personalization engine. The knowledge base is composed of three ontologies: a domain ontology, an ontology of the DW structure, and an ontology of resources. The personalization engine allows firstly, a personalized search of resources of the DW based on users profile, and secondly for a particular resource, an expansion of the research by recommending new resources based on the context of the resource. To recommend new resources, we have proposed three possible strategies. To validate our proposal, a prototype of the OPS system was developed, a personalization engine has been implemented in Java. This engine exploit an OWL knowledge composed of three interconnected OWL ontologies. We illustrate three experimental scenarios related to PMSI and defined with APHM domain experts
APA, Harvard, Vancouver, ISO, and other styles
13

Fraisse, Bernard. "Automatisation, traitement du signal et recueil de données en diffraction x et analyse thermique : Exploitation, analyse et représentation des données." Montpellier 2, 1995. http://www.theses.fr/1995MON20152.

Full text
Abstract:
La recherche en chimie du solide necessite l'utilisation et la maitrise de techniques indispensables telles que la diffraction des rayons x et l'analyse thermique. Tout en ameliorant leurs performances, l'automatisation des appareils classiques permet a un grand nombre de laboratoires d'acceder a ces techniques pour un cout modeste. Cette derniere n'a pu etre envisagee qu'apres le developpement d'outils informatiques, en particulier les bibliotheques de communication entre le micro-ordinateur et les differents peripheriques. Les logiciels d'acquisition, d'exploitation, de representation tridimensionnelle et de comparaison des diffractogrammes de rayons x avec ceux contenus dans un fichier de references, ont ete concus et ecrits au laboratoire. De plus, la realisation de chambres de mesures autorise l'enregistrement des diffractogrammes en fonction de la temperature. L'experience acquise a pu etre appliquee a l'analyse thermique: les logiciels ecrits permettent respectivement l'acquisition et l'exploitation des diagrammes d'analyse thermique, directe et differentielle
APA, Harvard, Vancouver, ISO, and other styles
14

Tchienehom, Pascaline Laure. "Modélisation et exploitation de profils : accès sémantique à des ressources." Toulouse 1, 2006. http://www.theses.fr/2006TOU10026.

Full text
Abstract:
L'accès à des ressources est une vision plus large de l'accès à l'information où les ressources peuvent être étendues à toutes sortes de catégories de personnes, choses ou actions. L'hétérogénéité de ces ressources a conduit au développement de nombreuses méthodes d'accès. Ces méthodes sont basées sur la description des ressources utilisées, que l'on appelle profil, et sur la définition de principes d'exploitation de ces descriptions pour la réalisation d'une tâche spécifique (recherche, filtrage, etc. ). Les modèles de profils et principes d'exploitation de ces derniers diffèrent d'une application à une autre. Afin de faire collaborer différentes applications, il y a un réel besoin de définir un cadre homogène et flexible de modélisation et d'exploitation de profils. Nos travaux visent à proposer des solutions sur ces deux aspects, au travers d'un modèle générique de profil ainsi que de méthodes d'analyse sémantique et d'appariement d'instances de ce modèle. Pour valider nos propositions, un outil d'aide à la construction, à la visualisation et à l'analyse sémantique de profils a été implémenté. De plus, une évaluation des méthodes d'analyse sémantique et d'appariement de profils proposées a été effectuée
Resources access is a broader view of information access where resources can be extended to any kind of persons, things and actions. Heterogeneity of resources has led to development of several access methods. These methods rely on the description of resources that we call profile, and also on the definition of using ru les of those profiles in order to achieve a specific task (retrieval, filtering, etc. ). Profiles and their using rules differ from one application to another. For applications cooperation, there is a real need of a flexible and homogenous framework for the modelling and use of profiles. Our research work aims at prodiving solutions in those two aspects, thanks to a profile generic model and methods for semantic analysis and matching of instances of this model. In order to validate our proposals, an assistant tool for profiles construction, visualization and semantic analysis has been implemented. Furthermore, an evaluation of methods for profiles semantic analysis and matching has been carried out
APA, Harvard, Vancouver, ISO, and other styles
15

Letessier, Pierre. "Découverte et exploitation d'objets visuels fréquents dans des collections multimédia." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0014/document.

Full text
Abstract:
L’objectif principal de cette thèse est la découverte d’objets visuels fréquents dans de grandes collections multimédias (images ou vidéos). Comme dans de nombreux domaines (finance, génétique, . . .), il s’agit d’extraire une connaissance de manière automatique ou semi-automatique en utilisant la fréquence d’apparition d’un objet au sein d’un corpus comme critère de pertinence. Une première contribution de la thèse est de fournir un formalisme aux problèmes de découverte et de fouille d’instances d’objets visuels fréquents. La deuxième contribution de la thèse est une méthode générique de résolution de ces deux types de problème reposant d’une part sur un processus itératif d’échantillonnage d’objets candidats et d’autre part sur une méthode efficace d’appariement d’objets rigides à large échelle. La troisième contribution de la thèse s’attache à construire une fonction de vraisemblance s’approchant au mieux de la distribution parfaite, tout en restant scalable et efficace. Les expérimentations montrent que contrairement aux méthodes de l’état de l’artnotre approche permet de découvrir efficacement des objets de très petite taille dans des millions d’images. Pour finir, plusieurs scénarios d’exploitation des graphes visuels produits par notre méthode sont proposées et expérimentés. Ceci inclut la détection d’évènements médiatiques transmédias et la suggestion de requêtes visuelles
The main goal of this thesis is to discover frequent visual objects in large multimedia collections. As in many areas (finance, genetics, . . .), it consists in extracting a knowledge, using the occurence frequency of an object in a collection as a relevance criterion. A first contribution is to provide a formalism to the problems of mining and discovery of frequent visual objects. The second contribution is a generic method to solve these two problems, based on an iterative sampling process, and on an efficient and scalable rigid objects matching. The third contribution of this work focuses on building a likelihood function close to the perfect distribution. Experiments show that contrary to state-of-the-art methods, our approach allows to discover efficiently very small objects in several millions images. Finally, several applications are presented, including trademark logos discovery, transmedia events detection or visual-based query suggestion
APA, Harvard, Vancouver, ISO, and other styles
16

Mardoc, Emile. "Exploitation des outils statistiques pour l'intégration des données omiques en biologie végétale et animale." Electronic Thesis or Diss., Université Clermont Auvergne (2021-...), 2023. http://www.theses.fr/2023UCFA0118.

Full text
Abstract:
Les avancées de ces dernières années dans les technologies de production de données biologiques sont à l'origine de la massification de données dites omiques, telles que les données génomiques (ADN), transcriptomiques (ARNm), protéomiques (protéines), métabolomiques (métabolites), etc. Ces données offrent la possibilité de décrire, en théorie, les processus biologiques les plus complexes mis en oeuvre par tous les systèmes biologiques en interaction avec leur environnement. L'enjeu méthodologique est alors de pouvoir intégrer, c'est-à-dire analyser simultanément, ces données de nature et provenance diverses pour répondre à différents questionnements scientifiques. Dans ce contexte, l'objectif de cette thèse est de proposer une approche méthodologique pour intégrer des données omiques produites dans différents contextes et l'appliquer à différents questionnements biologiques concrets chez les plantes et animaux. Un workflow en 6 étapes a été développé pour préparer et mener l'intégration des données omiques, à destination des biologistes non-experts de l'intégration multi-omiques. Le workflow détaille alors les étapes à effectuer avant d'intégrer les données omiques, ces étapes correspondant à 1- l'acquisition des données et leur structuration sous forme matricielle, 2- la définition de la question biologique et de la stratégie intégrative associée, 3- le choix de l'outil intégratif adapté à la question et aux données, 4- le pré-traitement des données, 5- l'analyse préliminaire par jeu de données, 6- l'intégration multi-omiques. Concernant spécifiquement l'étape d'intégration (6), parmi 13 outils sélectionnés et présentés dans le manuscrit, nous avons exploité l'outil mixOmics et développé la fonction cimDiablo_v2 pour intégrer les données par réduction de dimension.Ces développements méthodologiques ont été proposés dans l'optique de s'adapter à différents contextes biologiques, à savoir pour répondre à différentes questions biologiques classées en 3 stratégies intégratives (description, sélection, prédiction), en intégrant différents types de données omiques (génomiques, transcriptomiques,protéomiques, etc.) à différents niveaux (par espèces, individus, tissus, gènes, conditions expérimentales, etc.). Ces développements ont alors été testés sur plusieurs jeux de données biologiques, comme preuve de concept : premièrement, sur des données plantes (peuplier et céréales), afin d'identifier les profils d'interactions entre la méthylation de l'ADN et l'expression des gènes pour différentes populations géographiques d'individus (peuplier) et de stades de développement du grain (céréales), puis, deuxièmement, sur des données animales (bovin),afin d'identifier les signatures moléculaires de la composition tissulaire ou chimique des carcasses bovines en sélectionnant les protéines fortement liées aux phénotypes de la composition corporelle.Chez les plantes, nous avons durant cette thèse 1- hiérarchisé les facteurs majeurs de variabilité des données omiques, 2- regroupé les gènes selon leur profil de méthylation et d'expression, et 3- identifié des gènes master regulators fortement exprimés ou méthylés pour les différentes populations (chez le peuplier) ou stades de développement du grain (chez les céréales), puis étudié leurs fonctions biologiques. Chez les animaux (bovins), nous avons proposé une liste de protéines candidates de 7 phénotypes liés à la composition corporelle, et donc à l'efficience de conversion des rations en poids de muscle, qui pourra être utilisée pour de futures études prédictives
The recent advancements in biological data production technologies have led to the proliferation of omics data, such as genomic (DNA), transcriptomic (mRNA), proteomic (proteins), metabolomic (metabolites) data, etc. These data theoretically provide the opportunity to describe the most complex biological processes implemented by all biological systems interacting with their environment. Thus, the methodological challenge is to integrate, i.e. simultaneously analyze, these data from diverse nature and source to address various scientific questionnings. In this context, the objective of this thesis is to propose a methodological approach to integrate omics data produced in different contexts and apply it to various concrete biological questions in plants and animals.A six-step workflow has been developed to prepare and conduct the integration of omics data, decidated to biologists non-expert in multi-omics integration. The workflow outlines the steps to be followed before integrating omics data, these steps corresponding to 1- data acquisition and structuring in matrix form, 2- defining the biological question and the associated integrative strategy, 3- choosing the integrative tool suitable for the selected question and the data, 4- data pre-processing, 5- preliminary data analysis, 6- multi-omics integration. Regarding the integration step (6), among 13 selected tools presented in the manuscript, we made use of the mixOmics tool and developed the cimDiablo_v2 function to integrate data through dimension reduction.These methodological developments were proposed with the aim of being adaptable to various biological contexts, i.e. to address different biological questions classified into 3 integrative strategies (description, selection, prediction), by integrating different types of omics data (genomic, transcriptomic, proteomic, etc.) and at various levels (by species, individuals, tissues, genes, experimental conditions, etc.). These developments were then tested on several biological datasets as a proof of concept : firstly, on plant data (poplar and cereals) to identify interaction profiles between DNA methylation and gene expression for different geographical populations of individuals (poplar) and developmental stages of grain (cereals), and secondly, on animal data (bovine) to identify molecular signatures of tissue or chemical composition of bovine carcasses by selecting proteins strongly associated with body composition phenotypes.In plants, we 1- ranked the major factors of omics data variability, 2- grouped genes based on their methylation and expression profiles, and 3- identified strongly expressed or methylated master regulator genes for different populations (in poplar) or stages of grain development (in cereals), and studied their biological functions. In animals (bovine), we proposed a list of candidate proteins for 7 phenotypes related to body composition, and thus, to feed conversion efficiency, which can be used for future predictive studies
APA, Harvard, Vancouver, ISO, and other styles
17

Shahzad, Muhammad Kashif. "Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771672.

Full text
Abstract:
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
APA, Harvard, Vancouver, ISO, and other styles
18

Grenet, Pierre. "Système de reconstruction cinématique corps entier : fusion et exploitation de données issues de MEMS." Poitiers, 2011. http://theses.univ-poitiers.fr/26762/2011-Grenet-Pierre-These.pdf.

Full text
Abstract:
La démocratisation des MEMS a permis l'essor des centrales d’attitude : groupement de capteurs permettant d'évaluer son orientation par rapport au repère terrestre. Il existe plusieurs types de capteurs utilisés dans de telles centrales : les accéléromètres, les magnétomètres et les gyromètres. Seule la combinaison accéléromètres – magnétomètres – gyromètres permet l'estimation de l'orientation cinématique de façon satisfaisante, sans connaître d'à priori sur le mouvement, c'est-à-dire l'estimation de l'orientation en présence d’accélération inconnue. Le sujet de la thèse est justement, dans le cadre de la captation de mouvement corps entier, d'ajouter des connaissances à priori afin de limiter le nombre de gyromètres, voire de les supprimer totalement. Ces connaissances sont l'information que les capteurs sont fixés sur un squelette et que leurs mouvements relatifs ne peuvent être que des compositions de rotations. Pour tester l'efficience de cette méthode, on l'applique d'abord sur un pendule simple à un degré de liberté, puis sur un pendule à trois degrés de liberté, ensuite sur des groupes de segments (épaule – bras – avant-bras par exemple) et sur le corps entier. Ce rapport de thèse développera les aspects théoriques ainsi que les résultats obtenus sur les différentes méthodologies de résolution
Democratization of MEMS has enabled the development of attitude control : group of sensors enabling to measure ones orientation relatively to Earth's frame. There are several types of sensors used in attitude control : accelerometers, magnetometers and gyroscopes. Only the combination accelerometers - magnetmeters - gyros allows a satisfying estimation of the kinematics orientation without any a priori knowledge on the mouvement, that is to say, the estimation of the orientation in presence of an unknown acceleration. The aim of the thesis is, within the context of whole body motion capture, to add a priori knowledge in order to reduce the number of gyroscopes used, or even to eliminate them completely. This a priori knowledge is the fact that sensors are attached to a skeleton and so that their relative motions can only be combination of rotations. To test the efficiency of this method, we first apply it to a simple pendulum with one degree of freedom, then a pendulum with three degrees of freedom, then on groups of segments (shoulder - arm - forearm for example) and finally on a whole body system. This thesis develops the theory and the results obtained for different methodologies of resolution
APA, Harvard, Vancouver, ISO, and other styles
19

Lepage, Arnaud. "Exploitation de données spatiales mesurées par interférométrie laser pour l'analyse modale expérimentale des structures." Besançon, 2002. http://www.theses.fr/2002BESA2071.

Full text
Abstract:
Differentes methodes d'analyse modale experimentale basees sur des mesures par interferometrie laser (espi) sont presentees dans ce memoire. Le principal avantage de ces techniques est de fournir une information vibratoire a forte resolution spatiale et enregistree de faÇon simultanee et sans contact. Une premiere approche hybride consiste a enrichir une analyse classique par capteurs, avec des acquisitions espi. Sous certaines hypotheses, les deformees modales sont directement estimees a partir des reponses operationnelles mesurees par le systeme optique. On presente ensuite l'utilisation combinee des techniques d'appropriation modale et de mesures espi. Cette approche permet de disposer directement des modes propres du systeme conservatif associe a une structure, meme en presence de modes couples. Enfin, une methode repose sur la mesure de fonctions de transfert par voie optique. L'identification modale est realisee par une technique de condensation des donnees dans le domaine spatial et permet d'acceder aux poles complexes du systeme dissipatif etudie. Ces differentes approches developpees ont ete validees sur des cas test simules ou experimentaux puis appliquees sur des panneaux de carrosserie automobiles. On montre comment l'utilisation de ces methodes est particulierement bien adaptee dans une perspective de validation et de recalage de modeles elements finis structuraux
Different experimental modal analysis methods based on laser interferometry measurements (espi) are presented. The main advantage of these techniques is to provide high spatial resolution vibration information recorded simultaneously and contact-free. A first hybrid approach acts as a complement of a classical analysis using sensors with espi records. Under specific assumptions, mode shapes are directly estimated from operational responses measured by the optical system. A second method is presented combining modal appropriation techniques and espi measurements. This approach allows to obtain normal modes of the structure associated conservative system, even in case of modal coupling. Finally, a method based on measurement of transfer functions by optical way is then presented. Modal identification is performed using spatial domain data condensation technique and allows to obtain complex poles of the concerned dissipative system. These different approaches have been validated using simulated and experimental test cases and applied on automotive body panels. The use of these methods is especially well adapted in the view of validation and updating of structural finite elements models
APA, Harvard, Vancouver, ISO, and other styles
20

Ferreira, Franck. "Exploitation des données du radar de TRMM pour l'estimation de la pluie depuis l'espace." Paris 6, 2001. http://www.theses.fr/2001PA066089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Raynaud, Jean-Louis. "Exploitation simultanée des données spatiales et fréquentielles dans l'identification modale linéaire et non-linéaire." Besançon, 1986. http://www.theses.fr/1987BESA2013.

Full text
Abstract:
Les méthodes d'identification des solutions propres des structures mécaniques utilisent principalement des techniques d'appropriation ou de lissage de fonctions de transfert. Ces méthodes sont longues et n'utilisent pas simultanément toutes les mesures faites sur la structure. Il en résulte des erreurs ou des incohérences. Les méthodes temporelles, récemment développées prennent en compte simultanément toutes les informations délivrées dans une bande de fréquence par l'ensemble des capteurs places sur la structure. Ces méthodes nécessitent le calcul par transformées de Fourier inverses des réponses fréquentielles. La méthode proposée présente les mêmes avantages mais opère directement sur les réponses fréquentielles. A partir de deux développements, on transforme les déplacements et vitesses observes en un problème généralise aux valeurs propres caractérise par deux matrices complexes singulières. La résolution de ce problème conduit aux solutions propres contenues dans la bande fréquentielle observée. Elle a été validée : -sur des structures mécaniques linéaires simples présentant plusieurs modes propres fortement couples. -sur des structures mécaniques simples faiblement non-linéaires pour tester sa sensibilité aux non-linéarités de raideurs et d'amortissements. -sur des structures industrielles. Ce travail a permis la mise au point au L. M. A. D'un logiciel d'identification
APA, Harvard, Vancouver, ISO, and other styles
22

Fierro, Gutierrez Ana Carolina Elisa. "Exploitation de données de séquences et de puces à ADN pour l’étude du transcriptome." Evry-Val d'Essonne, 2007. http://www.theses.fr/2007EVRY0036.

Full text
Abstract:
On peut observer l’expression d’un génome en caractérisant l’ensemble des ARN messagers produits, le transcriptome. Deux techniques à grande échelle ont été choisies pour caractériser le transcriptome de Xenopus tropicalis pendant sa métamorphose: le séquençage d’ADNc (ESTs) et les puces à ADN. Cette thèse décrit l’analyse des ESTs et la création d’un indice de gènes accessible au travers d’une application web spécialement conçue. L’analyse de puces à ADN est centrée sur le prétraitement des données et l’acquisition de profils d’expression à partir d’un plan d���expérience complexe. Aborder l’analyse d’une façon pluridisciplinaire permet de satisfaire les besoins des biologistes et de sélectionner les outils appropriés pour chaque étape de l’analyse. Du point de vue méthodologique, cette thèse représente une démarche générale de l’étude du transcriptome d’un eucaryote complexe. Du côté biologique, l'information obtenue apporte à la connaissance de la biologie de X. Tropicalis
The expression of a genome can be observed at the RNA level, the transcriptome. Two large-scale approaches were chosen to characterize the transcriptome of Xenopus tropicals during metamorphosis: cDNA sequencing (ESTs) and DNA micro-arrays. This thesis describes the analysis of ESTs and the creation of a gene index, accessible through a specially designed web application. The analysis of micro-arrays is centered around data pre-processing and data acquisition of expression profiles from a complex experimental design. Our pluridisciplinar approach satisfied the needs of biologists and enabled the selection of appropriate tools for each step of the data analysis. From a methodological point of view, this thesis is representative of a general workflow for transcriptome studies with a complex eukaryotic genome. In addition, information that increases the knowledge on X. Tropicalis biology was obtained
APA, Harvard, Vancouver, ISO, and other styles
23

Elmi, Saïda. "An Advanced Skyline Approach for Imperfect Data Exploitation and Analysis." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0011/document.

Full text
Abstract:
Ce travail de thèse porte sur un modèle de requête de préférence, appelée l'opérateur Skyline, pour l'exploitation de données imparfaites. L'imperfection de données peut être modélisée au moyen de la théorie de l'évidence. Ce type de données peut être géré dans des bases de données imparfaites appelées bases de données évidentielles. D'autre part, l'opérateur skyline est un outil puissant pour extraire les objets les plus intéressants dans une base de données.Dans le cadre de cette thèse, nous définissons une nouvelle sémantique de l'opérateur Skyline appropriée aux données imparfaites modélisées par la théorie de l'évidence. Nous introduisons par la suite la notion de points marginaux pour optimiser le calcul distribué du Skyline ainsi que la maintenance des objets Skyline en cas d'insertion ou de suppression d'objets dans la base de données.Nous modélisons aussi une fonction de score pour mesurer le degré de dominance de chaque objet skyline et définir le top-k Skyline. Une dernière contribution porte sur le raffinement de la requête Skyline pour obtenir les meilleurs objets skyline appelés objets Etoile ou Skyline stars
The main purpose of this thesis is to study an advanced database tool named the skyline operator in the context of imperfect data modeled by the evidence theory. In this thesis, we first address, on the one hand, the fundamental question of how to extend the dominance relationship to evidential data, and on the other hand, it provides some optimization techniques for improving the efficiency of the evidential skyline. We then introduce efficient approach for querying and processing the evidential skyline over multiple and distributed servers. ln addition, we propose efficient methods to maintain the skyline results in the evidential database context wben a set of objects is inserted or deleted. The idea is to incrementally compute the new skyline, without reconducting an initial operation from the scratch. In the second step, we introduce the top-k skyline query over imperfect data and we develop efficient algorithms its computation. Further more, since the evidential skyline size is often too large to be analyzed, we define the set SKY² to refine the evidential skyline and retrieve the best evidential skyline objects (or the stars). In addition, we develop suitable algorithms based on scalable techniques to efficiently compute the evidential SKY². Extensive experiments were conducted to show the efficiency and the effectiveness of our approaches
APA, Harvard, Vancouver, ISO, and other styles
24

Piras, Patrick. "Développement et exploitation d'une base de données moléculaire pour la séparation d'énantiomères par chromatographie liquide." Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30097.

Full text
Abstract:
Les techniques de separation d'enantiomeres par chromatographie liquide sur phases stationnaires chirales (psc) connaissent depuis cette derniere decennie un developpement considerable. Ceci se traduit par l'apparition d'un nombre de plus en plus important de psc disponibles sur le marche accentuant le probleme du choix de la phase la plus efficace pour resoudre un probleme de separation donne. Les connaissances actuelles dans ce domaine sont limitees et ne permettent pas de rationaliser facilement les phenomenes de reconnaissance chirale afin de selectionner le systeme chromatographique (psc et conditions experimentales) le plus prometteur. Nous decrivons ici les resultats d'un programme de developpement qui a tout d'abord conduit a la construction de la base de donnees moleculaires chirbase developpee sous chembase® (systeme d'exploitation ms-dos). Celle ci a ete evaluee et validee. Elle apporte une solution originale performante a differents types de problemes de separation. L'analyse statistique des donnees moleculaires de chirbase (repartition de la litterature et des psc, analyse factorielle de la discrimination moleculaire des psc) obtenue de facon automatique apporte un eclairage nouveau dans ce domaine. Nous avons poursuivi le developpement de chirbase sur une architecture logicielle (reaccs#t#m et isis#t#m/host) et materielle (vax) plus importante qui apporte des fonctions nouvelles plus adaptees a nos objectifs de recherche qui visent a developper un systeme expert et un reseau neuronal en integrant une base de donnees tridimensionnelles dans un systeme de modelisation moleculaire
APA, Harvard, Vancouver, ISO, and other styles
25

Dellal, Ibrahim. "Gestion et exploitation de larges bases de connaissances en présence de données incomplètes et incertaines." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2019. http://www.theses.fr/2019ESMA0016/document.

Full text
Abstract:
Avec l’émergence et la prolifération des applications du Web sémantique, de nombreuses et récentes larges bases de connaissances (BC) sont disponibles sur le Web. Ces BC contiennent des entités (nommées) et des faits sur ces entités. Elles contiennent également les classes sémantiques de ces entités et leurs liens mutuels.De plus, plusieurs BC peuvent être interconnectées au niveau entités, formant ainsi le noyau du Web des données liées (ou ouvertes). Une caractérisation essentielle de ces BC est qu’elles contiennent des millions à des billions de triplets RDF incertains. Les causes de cette incertitude sont diverses et multiples. Elle peut résulter de l’intégration de sources de données de différents niveaux de fiabilité ou elle peut être causée par des considérations de préservation de la confidentialité. Aussi, elle peut être due à des facteurs li´es au manque d’informations, à la limitation des équipements de mesures ou à l’évolution d’informations. L’objectif de ce travail de thèse est d’améliorer l’ergonomie et la convivialité des systèmes modernes visant à exploiter des BC entachées d’incertitude. En particulier, ce travail propose des techniques coopératives et intelligentes aidant l’utilisateur dans ses prises de décisions quand ses recherches retournent des résultats insatisfaisants en termes de quantité ou de fiabilité.Dans un premier temps, nous nous sommes intéressés au problème des requêtes RDF retournant un ensemble vide de réponses. Ce type de réponse est frustrant et ne sert pas les attentes de l’utilisateur. L’approche proposée pour le traitement de ce problème est guidée par la requête initiale et offre un double avantage :(i) elle permet de fournir une explication sur l’échec de la requête en identifiant les MFS (Minimal Failing Sub-queries) et, (ii) elle permet de calculer des requêtes alternatives appelées XSS (maXimal Succeeding Subqueries),sémantiquement proches de la requête initiale et dont les réponses sont non-vides. Par ailleurs, d’un point de vue utilisateur, cette solution présente un niveau élevé de flexibilité dans le sens o`u plusieurs degrés d‘incertitude peuvent être simultanément considérés. Dans une seconde contribution, nous avons abord´e l’étude du problème dual au problème cité ci-dessus,c’est-`a-dire le cas des requêtes retournant un nombre trop élevé de réponses dans le contexte des données RDF.La solution préconisée vise `a réduire cet ensemble de réponses pour permettre à l’utilisateur de les examiner.Des contreparties des MFS et des XSS ont été établies, ce qui a permis d’identifier, d’une part, les causes du problème et, d’autre part, des requêtes alternatives dont les résultats peuvent être directement et facilement exploitables à des fins de décision.L’ensemble de nos propositions ont été validées par une série d’expérimentations portant sur différentes larges bases de connaissances en présence d’incertitude (WatDiv et LUBM). Nous avons aussi utilisé plusieurs Triplestores pour mener nos tests
In the era of digitilization, and with the emergence of several semantic Web applications, many new knowledge bases (KBs) are available on the Web. These KBs contain (named) entities and facts about these entities. They also contain the semantic classes of these entities and their mutual links. In addition, multiple KBs could be interconnected by their entities, forming the core of the linked data web. A distinctive feature of these KBs is that they contain millions to trillions of unreliable RDF triples. This uncertainty has multiple causes. It can result from the integration of data sources with various levels of intrinsic reliability or it can be caused by some considerations to preserve confidentiality. Furthermore, it may be due to factors related to the lack of information, the limits of measuring equipment or the evolution of information. The goal of this thesis is to improve the usability of modern systems aiming at exploiting uncertain KBs. In particular, this work proposes cooperative and intelligent techniques that could help the user in his decision-making when his query returns unsatisfactory results in terms of quantity or reliability. First, we address the problem of failing RDF queries (i.e., queries that result in an empty set of responses).This type of response is frustrating and does not meet the user’s expectations. The approach proposed to handle this problem is query-driven and offers a two fold advantage: (i) it provides the user with a rich explanation of the failure of his query by identifying the MFS (Minimal Failing Sub-queries) and (ii) it allows the computation of alternative queries called XSS (maXimal Succeeding Sub-queries), semantically close to the initial query, with non-empty answers. Moreover, from a user’s point of view, this solution offers a high level of flexibility given that several degrees of uncertainty can be simultaneously considered.In the second contribution, we study the dual problem to the above problem (i.e., queries whose execution results in a very large set of responses). Our solution aims at reducing this set of responses to enable their analysis by the user. Counterparts of MFS and XSS have been defined. They allow the identification, on the one hand, of the causes of the problem and, on the other hand, of alternative queries whose results are of reasonable size and therefore can be directly and easily used in the decision making process.All our propositions have been validated with a set of experiments on different uncertain and large-scale knowledge bases (WatDiv and LUBM). We have also used several Triplestores to conduct our tests
APA, Harvard, Vancouver, ISO, and other styles
26

Naboulsi, Diala. "Analysis and exploitation of mobile traffic datasets." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0084/document.

Full text
Abstract:
Les équipements mobiles deviennent une partie intégrale de notre vie numérique. Ces équipements interagissent avec l'infrastructure des réseaux cellulaires et leur activité est enregistrée pour des buts de facturation et monitoring sous forme de données de trafic mobile. Les travaux menés dans cette thèse se focalisent sur le potentiel que portent ces données pour l'amélioration des réseaux cellulaires futurs. D'une part, on montre que les données mobiles permettent de construire des profils spatio-temporels typiques de l'utilisation des réseaux cellulaires en environnement urbain. Cette analyse permet aussi la détection des comportements atypiques dans le réseau qui sont liés à des événements spéciaux. D'autre part, on montre que les données mobiles constituent un élément méthodologique important pour l'évaluation des solutions réseaux. Dans ce sens, on propose un mécanisme pour réduire la consommation énergétique des infrastructures cellulaires, en contrôlant la puissance sur le réseau d'accès à différents moments de la journée, tout en assurant la couverture géographique du réseau. On exploite aussi ces données pour évaluer les gains apportés par une nouvelle architecture de réseau d'accès, basée sur la virtualisation d'une partie du réseau et sa centralisation dans un cloud. Nos résultats montrent que cette architecture est bénéfique du point de vue des messages de signalisation, notamment pour les utilisateurs mobiles
Mobile devices are becoming an integral part of our everyday digitalized life. In 2014, the number of mobile devices, connected to the internet and consuming traffic, has even exceeded the number of human beings on earth. These devices constantly interact with the network infrastructure and their activity is recorded by network operators, for monitoring and billing purposes. The resulting logs, collected as mobile traffic datasets, convey important information concerning spatio-temporal traffic dynamics, relating to large populations with millions of individuals. The thesis sheds light on the potential carried by mobile traffic datasets for future cellular networks. On one hand, we target the analysis of these datasets. We propose a usage patterns characterization framework, capable of defining meaningful categories of mobile traffic profiles and classifying network usages accordingly. On the other hand, we exploit mobile traffic datasets to evaluate two dynamic networking solutions. First, we focus on the reduction of energy consumption over typical Radio Access Networks (RAN). We introduce a power control mechanism that adapts the RAN's power configuration to users demands, while maintaining a geographical coverage. We show that our scheme allows to significantly reduce power consumption over the network infrastructure. Second, we study the problem of topology management of future Cloud-RAN (C-RAN). We propose a mobility-driven dynamic association scheme of the C-RAN components, which takes into account users traffic demand. The introduced strategy is observed to lead to important savings in the network, in terms of handovers
APA, Harvard, Vancouver, ISO, and other styles
27

Mokhtari, Noureddine. "Extraction et exploitation d'annotations sémantiques contextuelles à partir de texte." Nice, 2010. http://www.theses.fr/2010NICE4045.

Full text
Abstract:
Cette thèse rentre dans le cadre du projet européen SevenPro (Environnement d’ingénierie virtuel sémantique pour la conception des produits) dont le but est d'améliorer le processus d'ingénierie de production dans les entreprises de fabrication, au moyen de l’acquisition, de la formalisation et de l'exploitation des connaissances. Nous proposons une approche méthodologique et logicielle pour générer des annotations sémantiques contextuelles à partir de texte. Notre approche est basée sur des ontologies et sur les technologies du Web sémantique. Dans une première partie, nous proposons une modélisation de la notion de « contexte » pour le texte. Cette modélisation peut être perçue comme une projection des différents aspects du «contexte» abordés par ses définitions dans la littérature. Nous proposons également une modélisation des annotations sémantiques contextuelles, avec la définition des différents types de relations contextuelles pouvant exister dans le texte. Ensuite, nous proposons une méthodologie générique pour la génération d’annotations sémantiques contextuelles basées sur une ontologie du domaine qui exploite au mieux les connaissances contenues dans les textes. L’originalité de la méthodologie est qu’elle utilise des techniques de traitement automatique de la langue ainsi que des grammaires d’extraction (engendrées automatiquement) de relations de domaine, de concepts et de valeurs de propriété afin de produire des annotations sémantiques reliées avec des relations contextuelles. De plus, nous prenons en compte le contexte d’apparition des annotations sémantiques pendant leur génération. Un système supportant cette méthodologie a été implémenté et évalué
This thesis falls within the framework of the European project SevenPro (Semantic Virtual Engineering Environment for Product Design) whose aim is to improve the engineering process of production in manufacturing companies, through acquisition, formalization and exploitation of knowledge. We propose a methodological approach and software for generating contextual semantic annotations from text. Our approach is based on ontologies and Semantic Web technologies. In the first part, we propose a model of the concept of "context" for the text. This modeling can be seen as a projection of various aspects of "context" covered by the definitions in literature. We also propose a model of contextual semantic annotations, with the definition of different types of contextual relationships that may exist in the text. Then, we propose a generic methodology for the generation of contextual semantic annotations based on domain ontology that operates at best with the knowledge contained in texts. The novelty in the methodology is that it uses language automatic processing techniques and grammar extraction (automatically generated) field relations, concepts and values of property in order to produce semantic annotations associated with contextual relations. In addition, we take into account the context of occurrence of semantic annotations for their generation. A system that supports this methodology has been implemented and evaluated
APA, Harvard, Vancouver, ISO, and other styles
28

Debarbieux, Denis. "Modélisation et requêtes des documents semi-structurés : exploitation de la structure de graphe." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00619303.

Full text
Abstract:
La notion de données semi-structureées est liée au monde du web. On appelle donnée semi-structurée une donnée dont le schéma n'est pas défini a priori. Par exemple, il peut s'agir d'une page HTML, d'un site Web tout entier ou encore d'un document XML. Cette thèse étudie les requêtes sur les données modélisées par des graphes. Plus précisément, on s'intéresse à différents langages de requêtes associés. Dans le cas des graphes orientés, on utilise des techniques de réécriture et d'automates pour étudier - à des fins d'optimisation de requêtes - les contraintes d'inclusions. Elles portent sur les chemins qui permettent de naviguer dans la donnée. Par ailleurs, on génère un index d'une donnée qui préserve toutes les contraintes d'inclusions. Ensuite, on étend cette étude pour obtenir le concept de requête graphe. Appliqué au cas des documents "XML coloré", elles permettent d'étudier formellement l'expressivité et la complexité de langages de requêtes inspirés de XPath et de XQuery. Enfin, les résultats théoriques sont validés par des expérimentations.
APA, Harvard, Vancouver, ISO, and other styles
29

Cyr, Isabel. "Exploitation des données RSO de RADARSAT pour la cartographie de la vulnérabilité de la nappe souterraine." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ38058.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Martin, Florent. "Pronostic de défaillances de pompes à vide - Exploitation automatique de règles extraites par fouille de données." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENA011.

Full text
Abstract:
Cette thèse présente une méthode de pronostic basée sur des règles symboliques extraites par fouille de données. Une application de cette méthode au cas du grippage de pompes à vide est aussi détaillée. Plus précisément, à partir d'un historique de données vibratoires, nous modélisons le comportement des pompes par extraction d'un type particulier de règles d'épisode appelé « First Local Maximum episode rules » (FLM-règles). L'algorithme utilisé pour extraire ces FLM-règles extrait aussi de manière automatique leur fenêtre optimale respective, i.e. la fenêtre dans laquelle la probabilité d'observer la prémisse et la conclusion de la règle est maximale. Un sous-ensemble de ces FLM-règles est ensuite sélectionné pour prédire les grippages à partir d'un flux de données vibratoires. Notre contribution porte sur la sélection des FLM-règles les plus fiables, la recherche de ces FLM-règles dans un flux continu de données vibratoires et la construction d'un intervalle de pronostic de grippage à partir des fenêtres optimales des FLM-règles retrouvées
This thesis presents a symbolic rule-based method that addresses system prognosis. It also details a successful application to complex vacuum pumping systems. More precisely, using historical vibratory data, we first model the behavior of the pumps by extracting a given type of episode rules, namely the First Local Maximum episode rules (FLM-rules). The algorithm that extracts FLM-rules also determines automatically their respective optimal temporal window, i.e. the temporal window in which the probability of observing the premiss and the conclusion of a rule is maximum. A subset of the extracted FLM-rules is then selected in order to further predict pumping system failures in a vibratory data stream context. Our contribution consists in selecting the most reliable FLM-rules, continuously matching them in a data stream of vibratory data and building a forecast time interval using the optimal temporal windows of the FLM-rules that have been matched
APA, Harvard, Vancouver, ISO, and other styles
31

Baudet, Aurélie. "Développement de la thérapie par différenciation des leucémies aigues myéloïdes par exploitation des données des transcriptomes." Montpellier 2, 2006. http://www.theses.fr/2006MON20101.

Full text
Abstract:
La vitamine D3 (VD) est un régulateur de la différenciation myéloïde. Ainsi, la combinaison d’agonistes non calcémiants du récepteur de la VD (VDR) et d’inhibiteurs des histones déacétylases permet d’obtenir une maturation complète des cellules de Leucémie aiguë myéloïde (LAM), issues de lignées ou d’échantillons de patients. L’établissement des profils d’expression génique, établi pour 96 gènes, permet de définir un groupe de marqueurs prédictifs de la réponse des LAM aux agents de différenciation. L’implication du corégulateur de récepteurs nucléaires, NCOA4, dans le contrôle transcriptionnel de la différenciation des LAM a été établie. Seul corégulateur modulé au cours de la différenciation d’un modèle de LAM4 par une combinaison de VD et de rétinoïdes, son expression est caractéristique d’une différenciation monocytaire en réponse à la VD. Par ailleurs, j’ai pu montré que NCOA4 est impliqué dans la modulation de l’activité du VDR
Vitamin D3 (VD) regulates myeloid differentiation. Combinating non calcemiant agonist of the Vitamin D Receptor (VD) allows efficient differentiation of Acute Myeloid Leukemia (AML) cells from cell lines or patient’s samples. Expression profile establishment for 96 genes allows definition of a marker’s cluster, predictive of AML’s response to differentiation agents. Implication of nuclear receptor coregulator NCOA4 was characterised in transcriptional control of AML differentiation. Single coregulator modulated during retinoid and VD induced differentiation of a AML4 model, its expression specifically responds to VD induced monocytic differentiation. In addition, I demonstrated that NCOA4 is implied in VDR activity control
APA, Harvard, Vancouver, ISO, and other styles
32

Mazurie, Aurélien. "Des gènes aux réseaux génétiques : exploitation des données transcriptomiques, inférence et caractérisation de structures de régulation." Paris 6, 2005. http://www.theses.fr/2005PA066030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Muñoz-Baca, Guadalupe. "Stockage et exploitation de dossiers médicaux multimédia au moyen d'une base de données généralisée : projet TIGRE." Université Joseph Fourier (Grenoble), 1987. http://tel.archives-ouvertes.fr/tel-00324082.

Full text
Abstract:
Notre travail présente les besoins d'une application médicale utilisant des données multimédia. C'est une application pilote pour le modèle et le SGBD TIGRE. L' application concerne le stockage et l'exploitation de dossiers médicaux. Une modélisation de l'application est réalisée avec le modèle TIGRE ; elle montre les objets du dossier radiologique et les liens qui existent entre eux. Une deuxième modélisation et une implémentation du schéma obtenu sont réalisées avec un SGBD relationnel. Une couche multimédia entre l'application et le SGBD relationnel a été construite. Elle permet (grâce au langage SQLMED créé) la manipulation homogène de données classiques et de données multimédia
APA, Harvard, Vancouver, ISO, and other styles
34

Grassot, Lény. "Mobilités évènementielles et espace urbain : Exploitation des donnés de téléphonie mobile pour la modélisation des grands évènements urbains." Rouen, 2016. http://www.theses.fr/2016ROUEL015.

Full text
Abstract:
Ce travail de recherche s’intéresse à l’appréhension, la détection, la compréhension et l’analyse des grands évènements urbains grâce à l’exploitation des données de téléphonie mobile. L’utilisation d’approches complémentaires – méthodes statistiques, analyse spatiale – appliquées à trois terrains – l’Armada de Rouen 2008, la Braderie de Lille 2011 et l’Armada de Rouen 2013 – ont permis de mettre en évidence les formes de spatialités (attractivité, concentration) et de temporalités (rythmes, pulsations) des espaces urbains lors du déroulement d’un grand évènement populaire. Ce type d’évènement soulève des problèmes d’évaluation et d’appréhension de leurs impacts sur les villes qui les accueillent. Ce travail de thèse tente de résoudre ces questions en utilisant des méthodologies de modélisation et de simulation. Les résultats obtenus soulignent la pertinence de la géolocalisation anonyme des données de téléphonie mobile pour comprendre le fonctionnement éphémère de la ville en contexte évènementiel et en percevoir les impacts en termes de mobilité et de comportement
This research is devoted to the apprehension, the detection, the understanding and the analysis of large urban planned events through mobile phone data, provided by French telecom operator Orange. The three cases studied are the Armada de Rouen 2008, the Braderie de Lille 2011 and the Armada de Rouen 2013. The aim of this thesis is to study and evaluate the impacts on urban spatial patterns thanks to modelling and simulation methodologies. To tackle the huge amount of data statistical methods, spatial analysis, and a new agent based model (GAMA) have been used. The achievement of this research lead us to highlight the role of spatial (attractiveness, concentration, etc. ) and temporal patterns (rhythms, urban pulses, etc. ) of urban spaces during the ongoing agenda of a popular large planned event. The outcomes of this research underline the relevance of the mobile phone data to understand the short-lived functioning as well as the routine of the city during major events. Moreover impacts in terms of mobility and social behavior must be taken into account
APA, Harvard, Vancouver, ISO, and other styles
35

Mulligan, Kyle. "Stratégies robustes pour le suivi et la prédiction de l'endommagement de structures composites à l'aide de piézocéramiques embarquées." Thèse, Université de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/156.

Full text
Abstract:
À l'heure actuelle, il existe de nombreuses machines de la vie quotidienne instrumentées avec des capteurs responsables de récolter des données. Plusieurs de ces capteurs sont installés dans le but d'exploiter les données à des fins de diagnostic. Dans la plupart des cas, les données abondantes et complexes ne peuvent être analysées facilement par un être humain. Ces données ne sont souvent que très partiellement exploitées. Ceci est également le cas dans le domaine de l'aéronautique. Le fonctionnement moderne des avions commerciaux génère de vastes quantités de données issues non seulement des capteurs à bord de l'avion, mais aussi des données obtenues à partir des procédures de maintenance. Comme pour des machines de la vie quotidienne, ces données ne sont pas exploitées de manière suffisamment efficace. Le pronostic par exploitation de données, basé sur des algorithmes d'apprentissage, est depuis peu envisagé dans le traitement des données. Ce projet présente son application dans le domaine de l'aéronautique pour la prédiction de la durée de vie résiduelle des structures en composite faisant partie d'un avion suite à un endommagement par impact. Ce mémoire par articles est divisé en cinq parties. Les principaux sujets traités concernent les matériaux composites, la propagation d'ondes, la surveillance embarquée des structures ainsi que la méthode de pronostic. La première partie expose l'état de l'art. La seconde partie présente une étude de la propagation des ondes guidées dans une structure transparente et isotrope contenant un ou plusieurs défauts. Cette étude est menée à l'aide d'un système de surveillance piézocéramique qui peut lui aussi être affecté d'un défaut. Les résultats obtenus démontrent que la couche adhésive sous les capteurs piézocéramiques se dégrade avec la présence d'impact. Des courbes de calibration expérimentales peuvent être construites pour compenser la dégradation de la couche adhésive suite à un impact. En détectant et en compensant une dégradation du système de surveillance piezocéramique ceci permet une amélioration de la robustesse du pronostic. Le troisième chapitre présente une étude des ondes guidées dans une structure isotrope et opaque. Plutôt que d'utiliser des courbes de calibration expérimentales, un modèle numérique est développé. Ce modèle rend possible la compensation de défauts dans les systèmes de surveillance piézocéramiques installés sur des métaux et sur des matériaux composites. Les quatrième et cinquième parties dérivent l'étape de pronostic. Dans un premier temps le traitement des données d'un système de surveillance piézocéramique monté sur des échantillons en composite est présenté. Suit la transformation des informations brutes mesurées par les transducteurs en paramètres permettant d'identifier des tendances lors d'un dommage important sur l'échantillon. Ces paramètres sont alors entrés dans les modèles basés sur des algorithmes d'apprentissage génériques. La cinquième partie détaille la méthode de compensation d'une dégradation du système de surveillance piézocéramique en exploitant les données récoltées identifiées dans les deux premières études (chapitre deux et trois).
APA, Harvard, Vancouver, ISO, and other styles
36

Bouali, Tarek. "Platform for efficient and secure data collection and exploitation in intelligent vehicular networks." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS003/document.

Full text
Abstract:
De nos jours, la filiale automobile connait une évolution énorme en raison de la croissance évolutive des technologies de communication, des aptitudes de détection et de perception de l’environnement, et des capacités de stockage et de traitement présentes dans les véhicules. En effet, une voiture est devenue une sorte d'agent mobile capable de percevoir son environnement et d’en collecter des informations, de communiquer avec les autres véhicules ou infrastructures présentes sur la route, et de traiter les données collectées. Ces progrès stimulent le développement de plusieurs types d'applications qui vont permettre d'améliorer la sécurité et l'efficacité de conduite et de rendre le voyage des automobilistes plus confortable. Cependant, ce développement repose beaucoup sur les données collectées et donc ne pourra se faire que via une collecte sécurisée et un traitement efficace de ces données détectées. La collecte de données dans un réseau véhiculaire a toujours été un véritable défi en raison des caractéristiques spécifiques de ces réseaux fortement dynamiques (changement fréquent de topologie, vitesse élevée des véhicules et fragmentation fréquente du réseau), qui conduisent à des communications opportunistes et non durables. L'aspect sécurité, reste un autre maillon faible de ces réseaux sans fils vu qu'ils sont par nature vulnérables à diverses types d'attaques visant à falsifier les données recueillies et affecter leur intégrité. En outre, les données recueillies ne sont pas compréhensibles par eux-mêmes et ne peuvent pas être interprétées et comprises si montrées directement à un conducteur ou envoyées à d'autres nœuds dans le réseau. Elles doivent être traitées et analysées pour extraire les caractéristiques significatives et informations pour développer des applications utiles et fiables. En plus, les applications développées ont toujours des exigences différentes en matière de qualité de service (QdS). Plusieurs travaux de recherche et projets ont été menées pour surmonter les défis susmentionnés. Néanmoins, ils n'ont pas abouti à la perfection et souffrent encore de certaines faiblesses. Pour cette raison, nous focalisons nos efforts durant cette thèse au développement d’une plateforme de collecte efficace et sécurisée de données dans un réseau de véhicules ainsi que l’exploitation de ces données par des applications améliorant le voyage des automobilistes et la connectivité des véhicules. Pour ce faire, nous proposons une première solution visant à déployer de manière optimale des véhicules, qui auront la tâche de recueillir des données, dans une zone urbaine. Ensuite, nous proposons un nouveau protocole de routage sécurisé permettant de relayer les données collectées vers une destination en se basant sur un système de détection et d'expulsion des véhicules malveillants. Ce protocole est par la suite amélioré avec un nouveau mécanisme de prévention d'intrusion permettant de détecter des attaquants au préalable en utilisant les filtres de Kalman. En deuxième partie de thèse, nous nous sommes concentré sur l’exploitation de ces données en développant une première application capable de calculer de manière fine l’itinéraire le plus économique pour les automobilistes ou tout gestionnaire de flottes de véhicules. Cette solution est basée sur les données influents sur la consommation de carburant et collectées à partir des véhicules eux mêmes et aussi d’autres sources d’informations dans l’Internet et accessibles via des API spécifiques. Enfin, un mécanisme spatio-temporel permettant de choisir le meilleur médium de communication disponible a été développé. Ce dernier est basé sur la logique floue et considère les informations recueillies sur les réseaux, les utilisateurs et les applications pour préserver de meilleure qualité de service
Nowadays, automotive area is witnessing a tremendous evolution due to the increasing growth in communication technologies, environmental sensing & perception aptitudes, and storage & processing capacities that we can find in recent vehicles. Indeed, a car is being a kind of intelligent mobile agent able to perceive its environment, sense and process data using on-board systems and interact with other vehicles or existing infrastructure. These advancements stimulate the development of several kinds of applications to enhance driving safety and efficiency and make traveling more comfortable. However, developing such advanced applications relies heavily on the quality of the data and therefore can be realized only with the help of a secure data collection and efficient data treatment and analysis. Data collection in a vehicular network has been always a real challenge due to the specific characteristics of these highly dynamic networks (frequent changing topology, vehicles speed and frequent fragmentation), which lead to opportunistic and non long lasting communications. Security, remains another weak aspect in these wireless networks since they are by nature vulnerable to various kinds of attacks aiming to falsify collected data and affect their integrity. Furthermore, collected data are not understandable by themselves and could not be interpreted and understood if directly shown to a driver or sent to other nodes in the network. They should be treated and analyzed to extract meaningful features and information to develop reliable applications. In addition, developed applications always have different requirements regarding quality of service (QoS). Several research investigations and projects have been conducted to overcome the aforementioned challenges. However, they still did not meet perfection and suffer from some weaknesses. For this reason, we focus our efforts during this thesis to develop a platform for a secure and efficient data collection and exploitation to provide vehicular network users with efficient applications to ease their travel with protected and available connectivity. Therefore, we first propose a solution to deploy an optimized number of data harvesters to collect data from an urban area. Then, we propose a new secure intersection based routing protocol to relay data to a destination in a secure manner based on a monitoring architecture able to detect and evict malicious vehicles. This protocol is after that enhanced with a new intrusion detection and prevention mechanism to decrease the vulnerability window and detect attackers before they persist their attacks using Kalman filter. In a second part of this thesis, we concentrate on the exploitation of collected data by developing an application able to calculate the most economic itinerary in a refined manner for drivers and fleet management companies. This solution is based on several information that may affect fuel consumption, which are provided by vehicles and other sources in Internet accessible via specific APIs, and targets to economize money and time. Finally, a spatio-temporal mechanism allowing to choose the best available communication medium is developed. This latter is based on fuzzy logic to assess a smooth and seamless handover, and considers collected information from the network, users and applications to preserve high quality of service
APA, Harvard, Vancouver, ISO, and other styles
37

Lienhart, Yann. "Analyse et exploitation de données de criblages de réactions chimiques pour la recherche de voies de synthèse." Strasbourg, 2011. http://www.theses.fr/2011STRA6223.

Full text
Abstract:
Les bases de données en chimie sont généralement centrées sur les molécules et les informations concernant les réactions sont extraites des publications scientifiques. Ces informations sont généralement disponibles dans des conditions expérimentales particulières et peu de données sont disponibles au sujet des réactions à faible rendement ou qui n’ont pas fonctionnées. En conséquence il peut être difficile de comparer les réactions et les transformations chimiques entre elles en raison de ces conditions expérimentales spécifiques et de ces données manquantes. Cette thèse a été financée par la société NovAlix (CIFRE), spécialisée en chimie organique et en biologie structurale. Afin d’explorer rapidement l’espace chimique et d’améliorer le processus de synthèse de molécules, deux méthodes d’expérimentation à haut débit ont été mises au point au sein de la société. Ces méthodes s’appuient sur la chromatographie en phase gazeuse et sur la spectrométrie de masse pour l’analyse des milieux réactionnels. La plate-forme informatique Magellan développée au cours de cette thèse est mise en œuvre grâce aux technologies Java Enterprise Edition et s’appuie sur une base de donnée centrée autour de la réaction chimique. Cet application permet la lecture, l’analyse et le stockage des données expérimentales récoltées par les méthodes d’expérimentation à haut débit de NovAlix et fournit des outils informatiques facilitant l’analyse des spectres expérimentaux et permettant la formulation de requêtes sur les expériences ainsi enregistrées
Chemistry databases are centered on chemicals and their reaction data is extracted from scientific literature. They are usually given in non-standardized conditions and in general nothing is available about reactions that did not occur or exhibit a low yield. Thus, it can be difficult to compare reactions and chemical transformations because of the specific experimental conditions and the missing data. This thesis has been funded by NovAlix (CIFRE), a company specialized in organic chemistry synthesis and structural biology. In order to explore the chemical space and improve the chemical synthesis process, two high-throughput reactions screening methods using gas chromatography and mass spectrometry have been set up in NovAlix. The Magellan information system developed during this thesis use a chemical reaction-centric database and is built on Java Enterprise Edition open-source technologies. It allows collecting high-throughput data from mass spectrometry and gas chromatography experimentations realized in standardized conditions. Then, the Magellan application enables the chemist to read and store experimental results, provides tools to help data analysis and query the collected data via a rich-client user interface
APA, Harvard, Vancouver, ISO, and other styles
38

Vallaeys, Karen. "Exploitation des données endodontiques en tomographie volumique : de la microtomographie in vitro à la scanographie in vivo." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0144/document.

Full text
Abstract:
La Tomographie Volumique à Faisceau Conique (TVFC) est une technologie d’imagerie tridimensionnelle très pertinente à utiliser en odontologie. Notre travail a pour objectifs de montrer ses intérêts et les applications spécifiques en endodontie. Après avoir redéfini les conséquences délétères possibles per et post opératoires des traitements endodontiques et expliqué les principes de la TVFC, nous explorons dans un premier temps les effets de la préparation canalaire in vitro à l’aide de la microtomographie à haute résolution puis, dans un second temps, la problématique et les intérêts de la création de reconstructions tridimensionnelles fiables et précises. Cette dernière partie aborde les notions de traitement des images issues de TVFC avant d’expliquer la démarche adoptée pour élaborer une classification tridimensionnelle des lésions inflammatoires périapicales d’origine endodontique sous formes numérique et physique
Cone Beam Computerized Tomography (CBCT) is a highly relevant three-dimensional imaging technology for use in dentistry. Our work aims to show its interests and specific applications in endodontics. After having redefined the possible deleterious per and post-operative consequences of endodontic treatments and explained the principles of CBCT, we first explore the effects of in vitro canal preparation, using high resolution microtomography and then, in a second time, the problematic and the interests of the creation of reliable and precise three-dimensional reconstructions. This last part deals with the notions of CBCT image processing before explaining the approach adopted to develop a three-dimensional classification of endodontic periapical lesions in digital and physical form
APA, Harvard, Vancouver, ISO, and other styles
39

Aribia, Karima. "Gestion et exploitation d'une base de données expérimentales pour le renforcement en cisaillement à l'aide de MCA." Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/547/1/ARIBIA_Karima.pdf.

Full text
Abstract:
Le comportement en cisaillement des poutres en BA renforcées en cisaillement à l'aide de MCA est un problème complexe, qui a jusqu'ici défié la prédiction purement analytique. D'ailleurs, les méthodes utilisées par les normes de calcul pour le dimensionnement de ces éléments sont largement semi empiriques, reposant en grande partie sur des mesures et observations obtenues à partir de tests en laboratoire. Les travaux documentaires, réalisés à travers une recherche bibliographique, exhaustive et détaillée au sein de l'équipe DRSR ont permis de monter une base de données très complète sur ce sujet complexe. Celle-ci couvre plus de 300 tests, et regroupe plus de 12000 données expérimentales. L'objectif de cette recherche est le développement d'un logiciel pour la gestion et l'exploitation de cette base de données. Spécifiquement, cet outil permet de mettre à jour les données, effectuer des recherches multicritères et analyser les données en fonction des paramètres d'influence. Mots Clés: cisaillement, béton, renforcement, matériaux composites, normes, base de données.
APA, Harvard, Vancouver, ISO, and other styles
40

Guenneau, Flavien. "Relaxation magnétique nucléaire de systèmes couplés et exploitation des données unidimensionnelles au moyen d'un logiciel convivial (RMNYW)." Nancy 1, 1999. http://docnum.univ-lorraine.fr/public/SCD_T_1999_0093_GUENNEAU.pdf.

Full text
Abstract:
Les travaux présents dans ce mémoire de thèse concernent des nouvelles méthodes de détermination et d'exploitation des paramètres de relaxation magnétique nucléaire. Dans une première partie, nous décrivons le logiciel RMNYW de traitement de données RMN, que nous avons été amené à développer pour les ordinateurs de type pc. Outre ses qualités de convivialité, nous avons mis l'accent sur ses aspects originaux pour montrer qu'il constitue un outil adapté aux thématiques du laboratoire. Sa capacité à traiter commodément les expériences de relaxation a d'ailleurs été mise à profit pour l'exploitation des données rattachées à la troisième partie de ce mémoire. Le deuxième chapitre s'articule autour de l'expérience de découplage homonucléaire. Nous décrivons deux méthodes permettant de s'affranchir de la distorsion des pics (phase-twist) qui affecte cette expérience. La première méthode fournit une information quantitative grâce à un algorithme impliquant une analyse des données temporelles. Ce même problème peut également être résolu en faisant appel aux spectres de puissance, mais aux dépens de la quantitativite. Ce traitement remarquablement aisé nous a permis d'utiliser la séquence d'écho de spin comme une boite noire pour mesurer les temps de relaxation t 1 et t 1 r h o dans des systèmes couples. La première partie du troisième chapitre porte sur l'hexafluorobenzene. Nous montrons que la détermination des vitesses de relaxation et de corrélation croisée permet de remonter non seulement à l'anisotropie de réorientation, mais aussi aux différents éléments des tenseurs d'écran. L'étude suivante concerne l'acide méthanoïque et ne fait appel qu'aux vitesses de corrélation croisée ; elle confirme l'existence de cette molécule sous forme de dimère à l'état liquide. Pour ces deux exemples, les données obtenues en phase liquide sont confrontées aux résultats de RMN du solide et aux calculs de chimie quantique.
APA, Harvard, Vancouver, ISO, and other styles
41

Etchebès, Pascale. "Exploitation automatique d'une base de données d'images à partir des informations textuelles jointes sur des bases cognitives." Besançon, 2003. http://www.theses.fr/2003BESA1019.

Full text
Abstract:
Notre sujet de recherche s'inspire de notre pratique professionnelle dans la constitution de bases de données d'images industrielles. Nous avons mené une mission d'automatisation d'une partie du fonds photographique des Chantiers de l'Atlantique à Saint-Nazaire. C'est à partir de cette expérience professionnelle que nous avons bâti notre projet. La photo industrielle montre les limites de l'approche habituelle de description qui consiste à lister les mots comme si le mot et sa trace écrite étaient liés à un référent stable et constitué. Notre conception du TAL nous conduit au-delà des mots, des termes et du langage. Notre approche est essentiellement conceptuelle. Le concept renvoie à la construction de la référence qui accompagne le mot : l'objet, l'action, la technologie, le sentiment, et ce à une époque donnée (l'univers de la construction navale peut avoir considérablement évolué de même que le sens des mots). Notre thèse consiste à proposer les principes de constitution d'une ontologie industrielle avec ses domaines, ses limites, ses activités, ses agents, ses produits, en tenant compte du fait que nous travaillons sur un média qui est la photo et qui justifie une rupture d'avec les solutions logicielles et documentaires proposées jusqu'à présent et qui ne prenaient en compte que du texte. Le travail est faiblement lexicologique ou terminologique. Ce n'est pas que le traitement linguistique est exclu de notre démarche. Le problème se posera avec acuité lorsqu'on se situera dans les interfaces en langage naturel
Our project of study is inspired from our profesional experience in the setting up of industrial images databases. We conducted a mission of computerization of a part of the photographic collection of the Chantiers de l'Atlantique in Saint-Nazaire (France). From this professional experience we drawn up our project. The industrial photography shows the limits of the usual approach of description which consists in listing the words as if the word and its written mark were linked up with a stable and constituted referent. Our conception of NLP technologies leads us beyond words, terms and language. Our approach is essentially conceptual. The concept refers to the construction of the reference which goes with the word : the object, the action, the technology, the feeling, and this at a given period (the universe of shipbuilding may have considerably evolved as well as the sense of the words). Our thesis consists in proposing the principles of setting up of an industrial ontology, its areas, its limits, its activities, its agents, its products, taking into account the fact that we are working on a media which is image and which justifies a break with software and information solutions proposed up to now and which only took into account the text. The work is faintly lexicologic or terminologic. It is not that linguistic data processing is dismissed of our process. The problem will be deeply questioned when we will find ourselves in natural language interfaces. Our thesis is composed of five parts. It is illustrated by photographies from the Chantiers de l'Atlantique, which have been chosen for their explicative power
APA, Harvard, Vancouver, ISO, and other styles
42

Gimenez, Rollin. "Exploitation de données optiques multimodales pour la cartographie des espèces végétales suivant leur sensibilité aux impacts anthropiques." Electronic Thesis or Diss., Toulouse, ISAE, 2023. http://www.theses.fr/2023ESAE0030.

Full text
Abstract:
Les impacts anthropiques sur les sols végétalisés sont difficiles à caractériser à l'aide d’instruments de télédétection optique. Ces impacts peuvent cependant entrainer de graves conséquences environnementales. Leur détection indirecte est rendue possible par les altérations provoquées sur la biocénose et la physiologie des plantes, qui se traduisent par des changements de propriétés optiques au niveau de la plante et de la canopée. L'objectif de cette thèse est de cartographier les espèces végétales en fonction de leur sensibilité aux impacts anthropiques à l'aide de données de télédétection optique multimodale. Différents impacts anthropiques associés à des activités industrielles passées sont considérés (présence d'hydrocarbures dans le sol, contamination chimique polymétallique, remaniement et compactage du sol, etc.) dans un contexte végétal complexe (distribution hétérogène de diverses espèces de différentes strates). Les informations spectrales, temporelles et/ou morphologiques sont utilisées pour identifier les genres et espèces et caractériser leur état de santé afin de définir et de cartographier leur sensibilité aux différents impacts anthropiques. Des images hyperspectrales aéroportées, des séries temporelles Sentinel-2 et des modèles numériques d'élévation sont exploités indépendamment ou combinés. La démarche proposée repose sur trois étapes. La première consiste à cartographier les impacts anthropiques en combinant des données de télédétection optique et des données fournies par l'opérateur du site (analyses de sol, cartes d'activité, etc.). La seconde étape vise à développer une méthode de cartographie de la végétation à l'aide de données de télédétection optique adaptée à des contextes complexes tels que les sites industriels. Enfin, les variations de la biodiversité et des traits fonctionnels dérivées des images hyperspectrales aéroportées et des modèles numériques d'élévation sont analysées en relation avec la carte d'impact au cours de la troisième étape. Les espèces identifiées comme espèces invasives ainsi que celles en lien avec les pratiques agricoles et forestières et les mesures de biodiversité renseignent sur les impacts biologiques. La cartographie des strates de végétation et la caractérisation de la hauteur des arbres, liées à une succession secondaire, sont utilisées pour détecter les impacts physiques (remaniement du sol, excavations). Enfin, les conséquences du stress induit sur la signature spectrale des espèces sensibles permettent d'identifier les impacts chimiques. Plus précisément, dans le contexte de l'étude, les signatures spectrales de Quercus spp, Alnus glutinosa et des mélanges herbacés varient en fonction de l'acidité du sol, tandis que celles de Platanus x hispanica et des mélanges arbustifs présentent des différences dues aux autres impacts chimiques
Anthropogenic impacts on vegetated soils are difficult to characterize using optical remote sensing devices. However, these impacts can lead to serious environmental consequences. Their indirect detection is made possible by the induced alterations to biocenosis and plant physiology, which result in optical property changes at plant and canopy levels. The objective of this thesis is to map plant species based on their sensitivity to anthropogenic impacts using multimodal optical remote sensing data. Various anthropogenic impacts associated with past industrial activities are considered (presence of hydrocarbons in the soil, polymetallic chemical contamination, soil reworking and compaction, etc.) in a complex plant context (heterogeneous distribution of multiple species from different strata). Spectral, temporal and/or morphological information is used to identify genera and species and characterise their health status to define and map their sensitivity to the various anthropogenic impacts. Hyperspectral airborne images, Sentinel-2 time series and digital elevation models are then used independently or combined. The proposed scientific approach consists of three stages. The first one involves mapping anthropogenic impacts at site level by combining optical remote sensing data with data supplied by the site operator (soil analyses, activity maps, etc.). The second stage seeks to develop a vegetation mapping method using optical remote sensing data suitable to complex contexts like industrial sites. Finally, the variations in biodiversity and functional response traits derived from airborne hyperspectral images and digital elevation models are analysed in relation to the impact map during the third stage. The species identified as invasive species, as well as those related to agricultural and forestry practices, and biodiversity measures provide information about biological impacts. Vegetation strata mapping and characterisation of tree height, linked to secondary succession, are used to detect physical impacts (soil reworking, excavations). Finally, the consequences of induced stress on the spectral signature of susceptible species allow the identification of chemical impacts. Specifically, in the study context, the spectral signatures of Quercus spp., Alnus glutinosa, and grass mixtures vary with soil acidity, while those of Platanus x hispanica and shrub mixtures exhibit differences due to other chemical impacts
APA, Harvard, Vancouver, ISO, and other styles
43

Ouaknine, Arthur. "Deep learning for radar data exploitation of autonomous vehicle." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT007.

Full text
Abstract:
La conduite autonome exige une compréhension détaillée de scènes de conduite complexes. La redondance et la complémentarité des capteurs du véhicule permettent une compréhension précise et robuste de l'environnement, augmentant ainsi le niveau de performance et de sécurité. Cette thèse se concentre sur le RADAR automobile, qui est un capteur actif à faible coût mesurant les propriétés des objets environnants, y compris leur vitesse relative, et qui a l'avantage de ne pas être affecté par des conditions météorologiques défavorables.Avec les progrès rapides de l'apprentissage profond et la disponibilité d'ensembles de données publiques sur la conduite, la capacité de perception des systèmes de conduite basés sur la vision (par exemple, la détection d'objets ou la prédiction de trajectoire) s'est considérablement améliorée. Le capteur RADAR est rarement utilisé pour la compréhension de scène en raison de sa faible résolution angulaire, de la taille, du bruit et de la complexité des données brutes RADAR ainsi que du manque d'ensembles de données disponibles. Cette thèse propose une étude approfondie de la compréhension de scènes RADAR, de la construction d'un jeu de données annotées à la conception d'architectures d'apprentissage profond adaptées.Tout d'abord, cette thèse détaille des approches permettant de remédier au manque de données. Une simulation simple ainsi que des méthodes génératives pour créer des données annotées seront présentées. Elle décrit également le jeu de données CARRADA, composé de données synchronisées de caméra et de RADAR avec une méthode semi-automatique générant des annotations sur les représentations RADAR.%Aujourd'hui, le jeu de données CARRADA est le seul jeu de données fournissant des données RADAR brutes annotées pour des tâches de détection d'objets et de segmentation sémantique.Cette thèse présente ensuite un ensemble d'architectures d'apprentissage profond avec leurs fonctions de perte associées pour la segmentation sémantique RADAR.Elle décrit également une méthode permettant d'ouvrir la recherche sur la fusion des capteurs LiDAR et RADAR pour la compréhension de scènes.Enfin, cette thèse expose une contribution collaborative, le jeu de données RADIal avec RADAR haute définition (HD), LiDAR et caméra synchronisés. Une architecture d'apprentissage profond est également proposée pour estimer le pipeline de traitement du signal RADAR tout en effectuant simultanément un apprentissage multitâche pour la détection d'objets et la segmentation de l'espace libre de conduite
Autonomous driving requires a detailed understanding of complex driving scenes. The redundancy and complementarity of the vehicle’s sensors provide an accurate and robust comprehension of the environment, thereby increasing the level of performance and safety. This thesis focuses the on automotive RADAR, which is a low-cost active sensor measuring properties of surrounding objects, including their relative speed, and has the key advantage of not being impacted by adverse weather conditions.With the rapid progress of deep learning and the availability of public driving datasets, the perception ability of vision-based driving systems (e.g., detection of objects or trajectory prediction) has considerably improved. The RADAR sensor is seldom used for scene understanding due to its poor angular resolution, the size, noise, and complexity of RADAR raw data as well as the lack of available datasets. This thesis proposes an extensive study of RADAR scene understanding, from the construction of an annotated dataset to the conception of adapted deep learning architectures.First, this thesis details approaches to tackle the current lack of data. A simple simulation as well as generative methods for creating annotated data will be presented. It will also describe the CARRADA dataset, composed of synchronised camera and RADAR data with a semi-automatic method generating annotations on the RADAR representations.This thesis will then present a proposed set of deep learning architectures with their associated loss functions for RADAR semantic segmentation. The proposed architecture with the best results outperforms alternative models, derived either from the semantic segmentation of natural images or from RADAR scene understanding,while requiring significantly fewer parameters. It will also introduce a method to open up research into the fusion of LiDAR and RADAR sensors for scene understanding.Finally, this thesis exposes a collaborative contribution, the RADIal dataset with synchronised High-Definition (HD) RADAR, LiDAR and camera. A deep learning architecture is also proposed to estimate the RADAR signal processing pipeline while performing multitask learning for object detection and free driving space segmentation simultaneously
APA, Harvard, Vancouver, ISO, and other styles
44

El, Haddadi Anass. "Fouille multidimensionnelle sur les données textuelles visant à extraire les réseaux sociaux et sémantiques pour leur exploitation via la téléphonie mobile." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1378/.

Full text
Abstract:
La concurrence est un concept fondamental de la tradition libérale et des sciences économiques qui oblige les entreprises à pratiquer l'Intelligence Economique (IE) pour bien se positionner sur le marché ou tout simplement pour survivre. Mais souvent, ce n'est pas le plus fort qui survit, ni le plus intelligent, mais celui qui est le plus sensible au changement, facteur dominant dans la société actuelle. Les changements proviennent de l'extérieur ou naissent au sein même de l'entreprise et peuvent l'affecter plus ou moins durablement. Dès lors, les entreprises sont appelées à rester constamment en veille pour guetter le moindre changement en vue d'y apporter la solution adéquate en temps réel. Cependant, pour une veille réussie, on ne doit pas se contenter uniquement de surveiller les opportunités, mais avant tout, d'anticiper les menaces. Malheureusement, cette veille se déroule en oubliant l'indispensable volet sécurité de l'IE à savoir la sécurité des données manipulées et celle des procédés suivis pour atteindre les objectifs de l'IE. Nos travaux de recherche consistent à proposer un Système d'Intelligence Economique (SIE) Généraliste et Mobile. Ce SIE intègre une approche de modélisation du contrôle d'accès aux données et aux traitements pour sécuriser toutes les informations et les flux d'interaction durant son cycle de vie. Le besoin en matière de sécurité dans un SIE provient du fait que les informations manipulées sont d'ordre stratégique ayant une valeur assez importante. Une telle sécurité ne doit pas être considérée comme une option supplémentaire qu'offre un SIE pour se distinguer d'un autre. D'autant plus que la fuite de ces informations n'est pas le fait de faiblesses inhérentes aux systèmes informatiques des entreprises, mais c'est avant tout une question organisationnelle. La mobilité présente un choix stratégique pour notre SIE ''XPlor EveryWhere'', dont le but est de permettre aux utilisateurs de nos solutions de veille de continuer à rechercher, surveiller, valider et rediffuser des informations stratégiques au cours de leurs déplacements. Ils n'ont ainsi plus besoin d'être assis face à leur ordinateur pour accéder à des données utiles dans l'instant (préparation d'une réunion, nouvel ordre du jour, information sur un interlocuteur, une technologie, un marché, demande urgente d'une analyse ou d'un focus spécifique). Il leur suffit simplement d'utiliser discrètement, et en tout sécurité, leur appareil mobile. Grâce à XPlor EveryWhere, ils sont en permanence au cœur de l'information pertinente
Competition is a fundamental concept of the liberal economy tradition that requires companies to resort to Competitive Intelligence (CI) in order to be advantageously positioned on the market, or simply to survive. Nevertheless, it is well known that it is not the strongest of the organizations that survives, nor the most intelligent, but rather, the one most adaptable to change, the dominant factor in society today. Therefore, companies are required to remain constantly on a wakeful state to watch for any change in order to make appropriate solutions in real time. However, for a successful vigil, we should not be satisfied merely to monitor the opportunities, but before all, to anticipate risks. The external risk factors have never been so many: extremely dynamic and unpredictable markets, new entrants, mergers and acquisitions, sharp price reduction, rapid changes in consumption patterns and values, fragility of brands and their reputation. To face all these challenges, our research consists in proposing a Competitive Intelligence System (CIS) designed to provide online services. Through descriptive and statistics exploratory methods of data, Xplor EveryWhere display, in a very short time, new strategic knowledge such as: the profile of the actors, their reputation, their relationships, their sites of action, their mobility, emerging issues and concepts, terminology, promising fields etc. The need for security in XPlor EveryWhere arises out of the strategic nature of information conveyed with quite a substantial value. Such security should not be considered as an additional option that a CIS can provide just in order to be distinguished from one another. Especially as the leak of this information is not the result of inherent weaknesses in corporate computer systems, but above all it is an organizational issue. With Xplor EveryWhere we completed the reporting service, especially the aspect of mobility. Lastly with this system, it's possible to: View updated information as we have access to our strategic database server in real-time, itself fed daily by watchmen. They can enter information at trade shows, customer visits or after meetings
APA, Harvard, Vancouver, ISO, and other styles
45

Carminati, Federico. "Conception, réalisation et exploitation du traitement de données de l’expérience ALICE pour la simulation, la reconstruction et l’analyse." Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=0ed58585-b62e-40b5-8849-710d1e15c6c2.

Full text
Abstract:
L'expérience ALICE (A Large Ion Collider Experiment) auprès de l'accélérateur LHC (Large Hadron Collider) du CERN (Organisation Européenne pour la Recherche Nucléaire) s'appuie sur un environnement logiciel intégré pour la conception du dispositif expérimental, l'évaluation de ses performances et le traitement des données. Cet environnement a été conçu par Federico Carminati. Il inclut des générateurs d'événements, les algorithmes de transport des particules décrivant de façon détaillée les interactions particule-matière (conçus et réalisés par Federico Carminati), les reconstructions des traces des particules et leur identification, et les analyses finales de physique
The ALICE (A Large Ion Collider Experiment) at the CERN (Conseil Européenne pour la Recherche Nucléaire) LHC (Large Hadron Collider) facility uses an integrated software framework for the design of the experimental apparatus, the evaluation of its performance and the processing of the experimental data. Federico Carminati has designed this framework. It includes the event generators and the algorithms for particle transport describing the details of the interaction particles-matter (designed and implemented by Federico Carminati), the reconstruction of the particle trajectories and the final physics analysis
APA, Harvard, Vancouver, ISO, and other styles
46

Peloton, Julien. "Data analysis and scientific exploitation of the CMB B-modes experiment, POLARBEAR." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC154.

Full text
Abstract:
L'évolution des techniques d'observation au cours des deux dernières décennies a rendu possible l'obtention de jeux de données de plus en plus précis, et a permis l'évolution de la cosmologie vers une science de haute précision. Les études menées sur les anisotropies du Fond Diffus Cosmologique n'ont jamais cessé de jouer un rôle prépondérant dans cette transformation, tant leurs impacts ont été importants. Néanmoins, les jeux de données extrêmement volumineux et complexes produits par les expériences de Fond Diffus en cours posent un nouveau défi pour le domaine, à tel point que la réussite de l'analyse moderne des données du Fond Diffus repose sur une forte interdisciplinarité combinant de la physique, des mathématiques, des méthodes statistiques ainsi que des méthodes de calcul numérique. Dans cette thèse, j'expose l'analyse du premier jeu de données produit par POLARBEAR, l'une des expériences actuelle de premier plan sur le Fond Diffus, ainsi que les résultats majeurs obtenus. L'expérience POLARBEAR est spécifiquement dédiée à la détection et à la caractérisation de la signature des modes B de la polarisation du Fond Diffus Cosmologique. La recherche des modes B est l'un des sujets actuel les plus passionnants pour le Fond Diffus, qui a commencé à ouvrir de nouvelles perspectives sur la cosmologie, en partie grâce aux résultats présentés et discutés dans ce travail. Dans cette thèse, je décris en premier lieu le modèle cosmologique actuel, en me concentrant sur la physique du Fond Diffus, et plus particulièrement ses propriétés de polarisation; ainsi qu'une vue d'ensemble des contributions et des résultats des expériences antérieures et en cours. Dans un deuxième temps, je présente l'instrument POLARBEAR, l'analyse des données prises lors de la première année d'observation, ainsi que les résultats scientifiques qui en ont été tirés, en soulignant principalement ma contribution au projet dans son ensemble. Dans le dernier chapitre, et dans le contexte des prochaines générations d'expérience sur les modes B, je détaille une étude plus systématique concernant l'impact de la présence des fuites des modes E dans les modes B sur les performances prévues par ces futures expériences, notamment en comparant plusieurs méthodes dont la méthodes des pseudospectres pures ainsi que l'estimateur quadratique à variance minimum. En particulier, dans le cas d'observation du ciel présentant une symétrie azimutale, je détaille comment l'estimateur quadratique à variance minimum peut être utilisé pour estimer de manière efficace les paramètres cosmologiques, et je présente une implémentation performante basée sur des algorithmes parallèles existants pour le calcul des transformations en harmoniques sphériques
Over the last two decades cosmology has been transformed from a data-starved to a data-driven, high precision science. N This transformation happened thanks to improved observational techniques, allowing to collect progressively bigger and more powerful data sets. Studies of the Cosmic Microwave Background (CMB) anisotropies have played, and continue on doing so, a particularly important and impactful role in this process. The huge data sets produced by recent CMB experiments pose new challenges for the field due to their volumes and complexity. Its successful resolution requires combining mathematical, statistical and computational methods aIl of which form a keystone of the modern CMB data analysis. In this thesis, I describe data analysis of the first data set produced by one of the most advanced, current CMB experiments, POLARBEAR and the major results it produced. The POLARBEAR experiment is a leading CMB B-mode polarization experiment aiming at detection and characterization of the so-called B-mode signature of the CMB polarization. This is one of the most exciting topics in the current CMB research, which only just has started yielding new insights onto cosmology in part thanks to the results discussed hereafter. In this thesis I describe first the modern cosmological model, focusing on the physics of the CMB, and in particular its polarization properties, and providing an overview of the past experiments and results. Subsequently, I present the POLARBEAR instrument, data analysis of its first year data set and the scientific results drawn from it, emphasizing my major contributions to the overall effort. In the last chapter, and in the context of the next generation CMB B-mode experiments, I present a more systematic study of the impact of the presence of the so-called E-to-B leakage on the performance forecasts of CMB B-modes experiments, by comparing several methods including the pure pseudospectrum method and the minimum variance quadratic estimator. In particular, I detail how the minimum variance quadratic estimator in the case of azimuthally symmetric patches can be used to estimate efficiently parameters, and I present an efficient implementation based on existing parallel algorithms for computing Spherical Harmonic Transforms
APA, Harvard, Vancouver, ISO, and other styles
47

Nevers, Yannis Alain. "Exploitation de marqueurs évolutifs pour l'étude des relations génotype-phénotype : application aux ciliopathies." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ090/document.

Full text
Abstract:
A l’ère des omiques, l’étude des relations génotype-phénotype repose sur l’intégration de données diverses décrivant des aspects complémentaires des systèmes biologiques. La génomique comparative offre un angle d’approche original, celui de l’évolution, qui permet d’exploiter la grande diversité phénotypique du Vivant. Dans ce contexte, mes travaux de thèse ont porté sur la conception de marqueurs évolutifs décrivant les gènes selon leur histoire évolutive. Dans un premier temps, j’ai construit une ressource d’orthologie complète, OrthoInspector 3.0 pour extraire une information évolutive synthétique des données génomiques. J’ai ensuite développé des outils d’exploration de ces marqueurs en relation avec les données fonctionnelles et/ou phénotypiques. Ces méthodes ont été intégrées à la ressource OrthoInspector ainsi qu’au réseau social MyGeneFriends et appliquées à l’étude des ciliopathies, conduisant à l’identification de 87 nouveaux gènes ciliaires
In the omics era, the study of genotype-phenotype relations requires the integration of a wide variety of data to describe diverse aspects of biological systems. Comparative genomics provides an original perspective, that of evolution, allowing the exploitation of the wide phenotypic diversity of living species. My thesis focused on the design of evolutionary markers to describe genes according to their evolutionary history. First, I built an exhaustive orthology resource, called OrthoInspector 3.0, to extract synthetic evolutionary information from genomic data. I then developed methods to explore the markers in relation to functional or phenotypic data. These methods have been incorporated in the OrthoInspector resource, as well as in the MyGeneFriends social network and applied to the study of ciliopathies, leading to the identification of 87 new ciliary genes
APA, Harvard, Vancouver, ISO, and other styles
48

Doucet, Antoine. "Extraction, Exploitation and Evaluation of Document-based Knowledge." Habilitation à diriger des recherches, Université de Caen, 2012. http://tel.archives-ouvertes.fr/tel-01070505.

Full text
Abstract:
Les travaux présentés dans ce mémoire gravitent autour du document numérique : Extraction de connaissances, utilisation de connaissances et évaluation des connaissances extraites, d'un point de vue théorique aussi bien qu'expérimental. Le fil directeur de mes travaux de recherche est la généricité des méthodes produites, avec une attention particulière apportée à la question du passage à l'échelle. Ceci implique que les algorithmes, principalement appliqués au texte dans ce mémoire, fonctionnent en réalité pour tout type de donnée séquentielle. Sur le matériau textuel, la généricité et la robustesse algorithmique des méthodes permettent d'obtenir des approches endogènes, fonctionnant pour toute langue, pour tout genre et pour tout type de document (et de collection de documents). Le matériau expérimental couvre ainsi des langues utilisant différents alphabets, et des langues appartenant à différentes familles linguistiques. Les traitements peuvent d'ailleurs être appliqués de la même manière au grain phrase, mot, ou même caractère. Les collections traitées vont des dépêches d'agence de presse aux ouvrages numérisés, en passant par les articles scientifiques. Ce mémoire présente mes travaux en fonction des différentes étapes du pipeline de traitement des documents, de leur appréhension à l'évaluation applicative. Le document est ainsi organisé en trois parties décrivant des contributions en : extraction de connaissances (fouille de données séquentielle et veille multilingue) ; exploitation des connaissances acquises, par des applications en recherche d'information, classification et détection de synonymes via un algorithme efficace d'alignement de paraphrases ; méthodologie d'évaluation des systèmes d'information dans un contexte de données massives, notamment l'évaluation des performances des systèmes de recherche d'information sur des bibliothèques numérisées.
APA, Harvard, Vancouver, ISO, and other styles
49

Zeyen, Patrick. "La base de données du Deep Sea Drilling Project : exploitation relationnelle et application à l'étude de la sédimentation néogène." Lyon 1, 1991. https://tel.archives-ouvertes.fr/tel-02019925/document.

Full text
Abstract:
Les donnees du deep sea drilling project stockees sur deux disques optiques numeriques ont permis la realisation d'une base de donnees relationnelle reduite aux donnees paleontologiques de la base de donnees initiale. L'elaboration de programmes d'extractions en a rendu possible l'exploitation. La mise en uvre de ces programmes a permis de montrer l'existence de grandes tendances sedimentaires dans l'ocean mondial au cours du neogene et d'en chercher les causes possibles. Sept grandes periodes dominees par des hiatus (ou lacunes de sedimentation) de grande ampleur ont ainsi pu etre definies pour le neogene. Nous avons en outre pu mettre en evidence de 13 periodes dominees alternativement par des tendances sedimentaires opposees (ralentissements ou, au contraire, accroissements des vitesses instantanees d'accumulation). De plus, une recherche paleoclimatologique basee sur l'etude de l'abondance relative de certaines especes caracteristiques parmi les nannofossiles calcaires a revele 11 tendances climatiques chaudes et 10 tendances climatiques froides predominantes durant le neogene. Il ressort de cette etude que six des sept hiatus et la plupart des minimums d'accumulation coincident avec des evenements climatiques froids (et le plus souvent avec des periodes de bas niveau marin) alors que les periodes de forte sedimentation correspondent tres souvent a des evenements climatiques chauds (ainsi qu'a des periodes de haut niveau eustatique). La methode des associations unitaires appliquee a la base de donnees du deep sea drilling project aboutit rapidement a la creation de subdivisions biochronologiques qui permettent de correler entre-eux, le plus souvent avec une grande finesse, les sites du d. S. D. P. La precision de ces subdivisions biochronologiques peut egaler celle des chartes biostratigraphiques traditionnelles
APA, Harvard, Vancouver, ISO, and other styles
50

Cordier, Mathilde. "Le recours aux soins dans la démence : la surmédicalisation en question. Exploitation des données de l’échantillon généraliste des bénéficiaires." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS201/document.

Full text
Abstract:
La prise en charge de la démence est un défi pour les cliniciens tant ces patients constituent une population hétérogène. Dans le cadre de cette prise en charge, l’intérêt des antidémentiels (anticholinestérasiques et mémantine) est débattue : l’efficacité clinique semble discutable et les effets indésirables non négligeables. En 2010, des recommandations de bonnes pratiques ont laissé libre choix aux médecins de prescrire ou non ces médicaments. Depuis des questions restent en suspens : 1/ quelle est l’évolution des taux de prescription de ces médicaments depuis ces recommandations, en d’autres termes comment l’expertise clinique des médecins, un des piliers du tryptique de l’evidence based medicine, s’est-elle exprimée ? 2/ quels sont les facteurs qui restent associés aujourd’hui au fait de prescrire ou non ces médicaments ? et 3/ y a-t-il une sur-hospitalisation liée à leurs effets indésirables ?La question de la surmédicalisation est au cœur de notre problématique de thèse. Dans ce travail, nous avons répondu à ces 3 questions posées qui ont constitué nos 3 objectifs. Nous avons pu montrer que les médecins semblaient de moins en moins confiants vis-à-vis des antidémentiels avec une diminution de leur prescription depuis 2010 et des conséquences importantes en termes de coûts évités. Lorsqu’ils continuaient d’être prescrits, ces traitements l’étaient essentiellement chez les patients les plus jeunes ou en meilleur état de santé. Enfin, les anticholinestérasiques, essentiellement la rivastigmine, augmentaient le risque d’hospitalisation via des effets indésirables cardiaques et digestifs. Nos résultats plaident en défaveur de la prescription d’antidémentiels tant du point de vue de la morbidité que des dépenses de santé. La question du point de vue du patient reste posée
Patients with dementia raise therapeutic challenges, as they constitute a heterogeneous population. As part of this management, the interest of antidementia drugs (cholinesterase inhibitors and memantine) is debated: the clinical efficacy seems questionable and the adverse effects appear to be significant. The 2010 recommendations gave to cliniciens the choice to prescribe or not these drugs. Since questions remain unanswered: 1 / what is the evolution of prescription rates of these drugs since these recommendations, in other words how the clinical expertise of cliniciens, one of the pillars the evidence based medicine, is expressed? 2 / what are the factors that remain today associated with prescribing these drugs or not? and 3 / Is there over-hospitalization related to their side effects?The question of medical overuse is a central point of our thesis problem. In this work, we answered these 3 questions which constituted our 3 objectives. We were able to show that cliniciens seemed less and less confident about antidementia drugs with a decrease in their prescription since 2010 and significant consequences in terms of avoided costs. When they continued to be prescribed, these treatments were mainly used in the youngest or most healthy patients. Finally, cholinesterase inhibitors, mainly rivastigmine, increased the risk of hospitalization via cardiac and digestive side effects. Our results argue against the prescription of antidementia drugs both from the point of view of morbidity and health expenditures. The question from the patient's point of view remains
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography