To see the other types of publications on this topic, follow the link: Jeux de données comme sujet.

Dissertations / Theses on the topic 'Jeux de données comme sujet'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 27 dissertations / theses for your research on the topic 'Jeux de données comme sujet.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Verine, Alexandre. "Quality and Diversity in Generative Models through the lens of f-divergences." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLD011.

Full text
Abstract:
Les modèles génératifs sont devenus un outil essentiel dans l'apprentissage automatique pour générer des échantillons réalistes à partir de distributions de données complexes. Malgré des avancées significatives dans les modèles tels que les Generative Adversarial Network, les Variational Autoencoders, les Normalizing Flows et les modèles de diffusion, des défis persistent pour régler le compromis entre la qualité et la diversité des échantillons. Cette thèse aborde le problème fondamental de la caractérisation, l'ajustement et de l'amélioration de la qualité et de la diversité dans les modèles génératifs. La précision et le rappel ont émergé comme des métriques cruciales pour évaluer la qualité et la diversité des modèles génératifs. La précision mesure combien d'échantillons générés sont réalistes avec la distribution de données réelle, reflétant la qualité des échantillons. Le rappel évalue combien d'échantillons de la distribution de données réelle peuvent être générés, indiquant la diversité des échantillons. La première contribution majeure de ce travail est l'unification des définitions de la précision et du rappel dans le cadre des f-divergences. En exprimant les métriques les plus populaires et leurs dérivés en tant qu'un famille de f-divergence, la PR-Divergence, nous établissons un système d'évaluation cohérent et complet pour les modèles génératifs. Cette formulation théorique permet une compréhension plus claire et une mesure plus précise des performances des modèles en termes de qualité et de diversité. En s'appuyant sur cette base théorique, la thèse introduit une méthode novatrice pour estimer la PR-divergence de manière différentiables, facilitant son utilisation comme fonction objective dans la formation des modèles génératifs. Cette approche permet d'optimiser n'importe quel compromis spécifique entre précision et rappel. Cette méthode se montre complémentaire aux méthodes existantes. De plus, la thèse propose une méthode optimale d'échantillonnage par rejet qui améliore à la fois la précision et le rappel. Cette méthode est démontrée comme étant optimale en termes de toute f-divergence, fournissant une technique robuste pour affiner les sorties des modèles génératifs pré entraînés. L'algorithme d'échantillonnage par rejet est conçu pour fonctionner sous des budgets computationnels limités, le rendant pratique pour des applications réelles .La validation expérimentale des méthodes proposées est réalisée sur une variété de jeux de données, incluant MNIST, CIFAR-10, Fashion MNIST, CelebA, FFHQ et ImageNet. En utilisant les Normalizing Flows, les Generative Adversarial Networks et les modèles de diffusion, nous démontrons l'efficacité de nos approches pour ajuster le compromis entre la qualité et la diversité des échantillons générés, puis pour améliorer la qualité. Les résultats soulignent la supériorité de nos méthodes par rapport aux métriques traditionnelles et aux techniques existantes
Generative modeling have become an essential tool in machine learning for generating realistic samples from complex data distributions. Despite significant advancements in models such as Generative Adversarial Networks , Variational Autoencoders, Normalizing Flows, and Diffusion models, challenges persist in achieving a balance between sample quality and sample diversity. Precision and recall have emerged as crucial metrics for assessing the quality and diversity of generative models. Precision measures how many generated samples are coherent with the real data distribution, reflecting sample quality. Recall evaluates how many samples from the real data distribution can be generated, indicating sample diversity. This thesis addresses the fundamental problem of characterizing, tuning, and improving Precision and recall in generative models. The first major contribution of this work is the unification of precision and recall definitions within the framework of f-divergences. By expressing the most popular metrics and their derivatives as f-divergences, we establish a cohesive and comprehensive evaluation system for generative models. This theoretical formulation allows for a clearer understanding and more precise measurement of model performance in terms of quality and diversity. Building upon this theoretical foundation, the thesis introduces a novel method for estimating the f-divergence in a tractable manner, facilitating its use as an objective function in the training of generative models. This approach enables the optimization of a specific trade-off between precision and recall, addressing a critical gap in the current literature where models often fail to achieve an optimal balance due to computational constraints. Furthermore, the thesis proposes an optimal rejection sampling method that enhances both precision and recall. This method is shown to be optimal in terms of any f-divergence, providing a robust technique for refining the outputs of pre-trained generative models. The rejection sampling algorithm is designed to operate under limited computational budgets, making it practical for real-world applications. The experimental validation of the proposed methods is conducted on a variety of datasets, including MNIST, CIFAR-10, Fashion MNIST, CelebA, FFHQ, and ImageNet. Using both Normalizing Flows, Generative Adversarial Networks and Diffusion Models, we demonstrate the effectiveness of our approaches in tuning the balance between quality and diversity of generated samples, and then in improving the quality. The results highlight the superiority of our methods compared to traditional metrics and existing techniques
APA, Harvard, Vancouver, ISO, and other styles
2

Plancade, Sandra. "Estimation par sélection de modèles à partir de données partiellement observées." Paris 5, 2010. http://www.theses.fr/2010PA05S008.

Full text
Abstract:
Cette thèse regroupe des procédures d'estimation non paramétrique dans différents contextes mettant enjeu des données partiellement observées. Les estimateurs s'appuient sur la méthode de sélection de modèles initiée par Birgé et Massart pour une étude du risque L2 mais également sur une méthode de sélection de modèles ponctuelle, adaptée au risque en un point donné. La première partie de ce manuscrit est consacré à l'estimation de la densité de l'erreur de régression, et la deuxième partie à l'étude de modèles de survie : estimation du risque instantané en présent de censure à droite, et estimation de la fonction de distribution conditionnelle à partir de données censurées par intervalle, cas 1
This manuscript presents several non parametric estimation procedures in frameworks involving partially observed data. The estimators rely on the model selection method adapted to the L2 risk (following Birge and Massart procedure) and also to the risk at a given point. The first part of the manuscript is devoted to the estimation of regression error density, and the second part to survival analysis issues: estimation of the hazard rate in presence of right censoring and estimation of the conditional distribution function from interval censored data
APA, Harvard, Vancouver, ISO, and other styles
3

Véron, Jacques. "Le concept de système en démographie : jeux et enjeux de l'interdépendance." Paris 5, 2004. http://www.theses.fr/2004PA05H038.

Full text
Abstract:
A partir de la définition d'un "système" comme "un ensemble de relations dont certaines sont des relations d'interdépendance", est exploré l'intérêt d'une approche systémique de la science de la population. Complexité, totalité et dynamique sont les trois notions-clefs par rapprort auxquelles sont envisagées la construction des catégories et en particulier de celles fondées sur l'age, les hypothèses d'indépendance et l'analyse causale. L'existence de relations de mutuelle dépendance fait que la dynamique des systèmes ne peut être abordé de manière mécaniste, à partir de relations linéaires. Si les systèmes du passé pouvaient être considérés comme stables, la complexité de ceux d'aujourd'hui fait qu'il est préférable de raisonner en termes de régulation plutôt que d'équilibre. La prise en compte des relations d'interdépendance constitue aussi bien un enjeu scientifique que politique et, dans une certaine, mesure, il y a correspondance entre les deux
Based on the definition of a "system" as "a set of relations including relations of interdependence", the benefits of a systemic approach to population sciences are studied. Complexity, totality and dynamics are the three key notions in relation to which the construction of categories is considered and in particular those based on age, the hypotheses of independence and causal analysis. The existence of relations of mutual dependence means the dynamics of systems cannot be approached in a mechanistic manner, based on linear relations. Although systems in the past could be considered as stable, the complexity of current systems means that it is preferable to reason in terms regulation rather than balance. Taking into account relations of interdependence is a scientific but also a political issue and to a certain extent there is a correspondence between the two
APA, Harvard, Vancouver, ISO, and other styles
4

Lieury, Tiffany. "Transitoires calciques présynaptiques induits par dépolarisation membranaire : amélioration des méthodes dédiées à leur détection automatique et à leur analyse : Sur la réelle complexité de l'analyse des données d'imagerie calcique." Paris 5, 2011. http://www.theses.fr/2011PA05T048.

Full text
Abstract:
Dans les neurones, les élévations transitoires de la concentration intracellulaire en ions calcium influencent localement l’excitabilité et l’efficacité synaptique. Dans les petits compartiments axonaux, la dynamique des transitoires calciques présynaptiques joue un rôle majeur dans le contrôle de la libération de neurotransmetteurs, et par conséquent, dans la communication entre les neurones. Leur cinétique est généralement étudiée en estimant les valeurs de paramètres d’intérêt sur les données en utilisant différents modèles de dynamiques calciques. Généralement, la distribution de ces données est considérée comme suivant une loi Normale de variance constante. En réalité, cela ne s’applique guère aux données acquises avec une caméra CCD, et les résultats d’estimation de paramètres sont peu fiables. En adaptant un modèle déjà existant de bruit d’acquisition de caméra CCD, nous avons pu développer le cadre statistique nécessaire à des estimations de paramètres fiables pour 2 modèles de dynamique calcique. De plus, nous proposons une méthode statistique de détection automatique de signaux d’intérêt basée sur la distribution de données d’imagerie calcique obtenues avec une caméra CCD, ainsi qu’un ajustement possible des paramètres de la méthode pour une détection spécifique des signaux calciques présynaptiques de grande amplitude. Enfin, nous adaptons, à nos données d’imagerie calcique, une nouvelle méthode de débruitage et de classification des signaux
In neurons transient and local elevations of the intracellular free calcium ions concentration influence the excitability and the synaptic efficacy. In small axonal compartements, the dynamics of presynaptic calcium transients were shown to play a major role in the control of neurotransmitter release, and thus in the communication between neurons. Kinetics of presynaptic calcium transients are usually investigated by estimating parameters of interest on recorded data using different models of calcium dynamics, while the distribution of the data is assumed to be Normal with a constant variance. Unfortunately this assumption does not hold for data acquired with a CCD camera because of the photon noise, hence leading to unreliable parameter estimations. By adapting an existing CCD camera noise model, we have developed a correct statistical framework to reliably estimate the parameters of interest of 2 models of calcium dynamics. Based on the correct distribution of calcium imaging data acquired with a CCD camera, we propose a statistical method for an automated detection of signals of interest and adjust its parameters for the specific detection of high amplitude presynaptic calcium transients. Finally we adapt to calcium imaging data a novel method for denoising and clustering signals
APA, Harvard, Vancouver, ISO, and other styles
5

Guennouni, Hatim. "Flexsim : un simulateur d'ateliers flexibles interface a un systeme de gestion de base de donnee relationnelle." Paris 5, 1990. http://www.theses.fr/1990PA05S006.

Full text
Abstract:
Cette these est scindee en deux parties traitant, respectivement, de l'etude du systeme d'information d'un atelier flexible et de la realisation d'un outil de simulation, appele flexsim. Dans la premiere partie, une approche hierarchique basee sur les modeles conceptuels entite-association et relationnel, a permis la construction d'un schema relationnel d'une classe d'ateliers flexibles. Dans la seconde partie, un nouvel outil de simulation est propose. L'originalite de cet outil reside dans le fait qu'il etablit une independance entre le modele de donnees et le modele de simulation. Une interface entre un systeme de gestion de base de donnees relationnelle et le simulateur proprement dit est creee. La couche de dialogue du sgbd est le point d'entree du simulateur, ce qui facilite la creation ou la modification d'une configuration d'un atelier flexible.
APA, Harvard, Vancouver, ISO, and other styles
6

Spiess, Jeanne. "Régulation neurocognitive de biais perceptifs élémentaires dans des tâches logico-mathématiques : Données comportementales, psychophysiologiques et d'imagerie cérébrale." Paris 5, 2007. http://www.theses.fr/2007PA05H057.

Full text
Abstract:
L'objectif est d'identifier les mécanismes neurocognitifs impliqués dans la capacité de jeunes adultes à surmonter des biais perceptifs élémentaires dans des tâches logico-mathématiques. Une première étude d'Imagerie par Résonance Magnétique fonctionnelle confirme la persistance chez l'adulte de la stratégie « longueur-ega/e-nombre » à l'origine de l'échec de l'enfant à la tâche de conservation du nombre de Piaget jusqu'à 7 ans. Elle montre que l'interférence induite par cette stratégie est surmontée en recrutant un réseau exécutif préfrontal de gestion de conflits et par des ajustements stratégiques caractérisés par une variabilité interindividuelle tant au niveau comportemental que neural. La seconde étude repose sur un paradigme d'apprentissage basé sur deux tâches de raisonnement déductif. Elle. Indique que la capacité des adultes à corriger un biais robuste d'appariement relève de facteurs inhibiteurs et métacognitifs et qu'elle est associée à un état somatique indexé par une augmentation de la Réponse ÉlectroDermale
Adults' basic perceptual blases question linear and cumulative conceptions of cognitive development (like Piaget's) that consider adults to be radically différent from children. Thèse biases indicate indeed that our behaviour is often guided by heuristic stratégies which may be adaptive or not depending on situations and which coexist with other, more analytic stratégies. Hère, thé overall aim is to identify neurocognitive mechanisms underlying young adults' ability to overcome such biases during logico-mathematical tasks. Our first study, using functional Magnetic Résonance Imaging, shows that thé « lengfh-equals-number » strategy that accounts for children's failure on Piaget's conservation of number task (until 7-years-old) persists in adults. Results indicate that adults overcome thé interférence induced by this strategy by recruiting an executive prefrontal network involved in conflict monitoring. They also use stratégie adjustments characterized by an interindividual variability présent both at thé behavioural and neural levels. Some subjects rely on a counting strategy and recruit a leftward asymmetric network, while others use a visuospatial strategy associated with a network showing a rightward asymmetry. The second study consists in a training paradigm based on two logically isomorphic tasks of deductive reasoning. Results show that adults' ability to correct a robust matching bias relies on inhibitory and metacognitive factors. It is also associated with a somatic state indexed by an increase of Skin Conductance Response
APA, Harvard, Vancouver, ISO, and other styles
7

Mangel, Anne-Claire. "Analyse de la construction sociale de la notion de "jeu pathologique" et de ses effets sur les représentations et pratiques des joueurs de la Française des Jeux." Paris 5, 2009. http://www.theses.fr/2009PA05H029.

Full text
Abstract:
Cette recherche repose sur deux terrains d'enquête, l'un réalisé auprès d'une cinquantaine de joueurs de la Française des Jeux, et l'autre ayant eu lieu auprès d'acteurs politico-administratifs, d'acteurs médicaux, d'acteurs sociaux et d'acteurs économiques. Cette thèse a un double objectif : d'une part retracer et analyser le processus qui a permis au problème du «jeu pathologique » d'être inscrit à l'agenda politique ; d'autre part saisir de quelle manière la montée en politique de cette problématique a pu avoir des effets sur les pratiques et représentations des joueurs de la Française des Jeux. L'idée sous-jacente est de comprendre comment la médicalisation des excès de jeu peut, tout en étant essentielle, constituer une stigmatisation supplémentaire d'une activité, déjà négativement connotée
This research is based on two different fieldworks, one realized with about fifty gamblers of la Frangaise des Jeux, and the other one realized with politico-administrative actors, medical actors, social actors and economic actors. This thesis has a double objective which consists, on one hand, in reviewing and analyzing the process which led the issue of "pathological gambling" to be registered on the political agenda and on the other hand, in understanding how the increasing visibility of this issue among the political sphere may impact the practices and the representations of the gamblers of la Frangaise des Jeux. The underlying idea is to understand how the medicalization of the excesses of gambling can, while being essential, constitute a supplementary stigmatization of an activity, already negatively connoted
APA, Harvard, Vancouver, ISO, and other styles
8

Persyn, Emmanuel. "Base de données informatiques sur la première guerre du Golfe." Lille 3, 2003. http://www.theses.fr/2003LIL30018.

Full text
Abstract:
Cette thèse est présentée sur deux supports. Le CD-Rom contient la base de données sur la guerre du Golfe de 1991. Celle-ci retrace la chronologie détaillée depuis l'invasion du Koweit, en août 1990, jusqu'au cessez-le-feu en février 1991. Elle se caractérise par de multiples entrées qui permettent de découvrir les événements, les lieux, les personnages et les ouvrages parus sur la question. Le volume dactylographié présente la méthodologie appliquée pour la constitution de cette base de données, le conflit et son influence sur les relations israélo-palestiniennes
APA, Harvard, Vancouver, ISO, and other styles
9

Le, Duff Franck. "Enrichissement quantitatif et qualitatif de relations conceptuelles des bases de connaissances médicales par extraction et héritage automatique par des méthodes informatiques et probabilistes." Rennes 1, 2006. http://www.theses.fr/2006REN1B094.

Full text
Abstract:
Le projet de Système du Langage Unifié Médical (UMLS) vise à élaborer un entrepôt de termes, concepts et rapports entre concepts à partir de plusieurs classifications médicales. Cette thèse décrit la possibilité d'enrichir automatiquement avec des liens "sensés" la base de connaissances UMLS en employant la description des maladies d'autres bases de connaissance, dans notre cas l'ADM (Aide au Diagnostic Médical) et la SNOMED internationale. Malgré les contraintes et les difficultés pour qualifier les liens interconceptuels, les résultats prouvent qu'il est possible de trouver, de créer et de typer de nouveaux liens et de les intégrer ensuite automatiquement dans la base UMLS. Un des intérêts de ce travail est que l'étude automatisée des rapprochements entre bases pourrait être employé avec d'autres bases de connaissances comme des bases de données de systèmes experts et permettre la navigation sémantique dans un réseau de concepts actuellement encore trop dépourvu d'intelligence.
APA, Harvard, Vancouver, ISO, and other styles
10

Bartout, Pascal. "Pour un référentiel des zones humides intérieures en milieu tempéré : l'exemple des étangs en Limousin (France)." Limoges, 2006. http://aurore.unilim.fr/theses/nxfile/default/71777958-ff40-4d8d-b575-c46b1256b37f/blobholder:0/2006LIMO2004.pdf.

Full text
Abstract:
Zone humide sujette à débat par l'artificialité de sa création et de son fonctionnement, l'étang intérieur est un objet géographique méconnu en France, notamment dans les régions traditionnellement vouées à une pisciculture intensive. Par ses multiples zones d'ombre, l'étude des étangs en Limousin constitue un terrain intéressant en matière d'échantillonnage d'approches. La première d'entre elles, d'ordre numérique, permet d'utiliser à plein escient les différents outils d'inventaire actuels. Le résultat obtenu avec 22792 plans d'eau, dont plus de 16000 étangs, en fait la première région administrative stagnustre française. En second lieu, une telle approche offre la particularité de comprendre les mécanismes génériques de fonctionnement des étangs, mais également ceux minoritaires et pourtant bien réels, se rapportant aux caractéristiques paysagères et socio-économiques de la région. Ainsi, la visualisation des localisations et autres concentrations fluctuantes, à cause de la variabilité des critères physiques et humains à l'échelle de l'Histoire, permet de réhabiliter une région d'étangs, vieille de près de mille ans, mais trop souvent écartée des discussions à l'échelle nationale. Grâce au référentiel informatisé, utilisant moult items (morphométriques, sociologiques, historiques et physiques), des typologies de plans d'eau, et en particulier d'étangs, apparaissent. Le croisement effectué fournit une régionalisation des étangs, régions de toutes tailles, comme celle référence du Haut-Limousin qui peut être dorénavant considérée comme la première région géographique en terme de nombre et de densité d'étangs en France. Ce travail offre certes une reconnaissance au Limousin, mais avant tout procure un outil de gestion au plus près de la réalité puisque adaptable aux variabilités spatiales des processus limniques.
APA, Harvard, Vancouver, ISO, and other styles
11

Madelaine-Favier, Sophie Lederlin Pierre. "Les contrepèteries médicales comment ouvrir la valve de l'humour /." [S.l.] : [s.n.], 2003. http://www.scd.uhp-nancy.fr/docnum/SCDMED_T_2003_MADELAINE_FAVIER_SOPHIE.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Kimiaei, Asadi Mariam. "Adaptation de contenu multimedia avec MPEG 21 : conversion de ressources et adaptation sémantique de scènes." Paris, ENST, 2005. http://www.theses.fr/2005ENST0040.

Full text
Abstract:
L'objectif de cette thèse de doctorat est de proposer des techniques et des méthodologies nouvelles, simples et efficaces pour l'adaptation de contenu multimédia à diverses contraintes de contexte d’utilisation. Le travail est basé sur la norme MPEG-21 qui vise à définir les différents composants d'un système de distribution de contenus multimédia. Le travail de cette thèse est divisé en deux parties principales : l'adaptation de médias uniques, et l'adaptation sémantique de documents multimédia composé. Dans l'adaptation de médias uniques, le média est adapté aux contraintes du contexte de consommation, telles que les capacités du terminal, les préférences de l'utilisateur, les capacités du réseau, les recommandations de l'auteur, etc. . . Dans cette forme d'adaptation, le média est considéré hors de tout contexte de présentation multimédia structurée. Nous avons défini des outils et descripteurs, étendant les outils et descripteurs MPEG-21 DIA, pour la description des suggestions d’adaptation et la description des paramètres correspondants. Dans l'adaptation sémantique de documents multimédia structurés, adaptation est considérée selon les relations temporelles, spatiales et sémantiques entre les objets média de la scène. En adaptant une présentation multimédia afin de préserver l'uniformité et la logique de la scène adaptée, le processus d'adaptation doit avoir accès à l'information sémantique de la présentation. Nous avons défini un langage d’extension de la description de scène pour l'expression de cette information sémantique. Pour la réalisation d’un tel système d’adaptation, nous avons utilisé SMIL 2. 0 pour décrire nos scènes multimédia
The objective of this Ph. D. Thesis is to propose new, simple and efficient techniques and methodologies for support of multimedia content adaptation to constrained contexts. The work is based on parts of the on-going MPEG-21 standard that aims at defining different components of a multimedia distribution framework. The thesis is divided into two main parts: single media adaptation and semantic adaptation of multimedia composed documents. In single media adaptation, the media is adapted to the context constraints, such as terminal capabilities, user preferences, network capacities, author recommendations and etc. In this type of adaptation, the media is considered solely, i. E. As mono media. We have defined description tools extending the MPEG-21 DIA schema, for description of hints and suggestions on different media adaptations and their corresponding parameters. In semantic adaptation of structured multimedia documents, we addressed the question of adaptation based on temporal, spatial and semantic relationships between the media objects. When adapting a multimedia presentation, in order to preserve the consistency and meaningfulness of the adapted scene, the adaptation process needs to have access to the semantic information of the presentation. We have defined a language as a set of descriptors, for the expression of semantic information of composed multimedia content. In our implementations, we used SMIL 2. 0 for describing multimedia scenes
APA, Harvard, Vancouver, ISO, and other styles
13

Maupetit, Julien. "Génération ab initio de modèles protéiques à partir de représentations discrètes des protéines et de critères d'énergie simplifiés." Paris 7, 2007. http://www.theses.fr/2007PA077194.

Full text
Abstract:
Dans l'ère post-génomique, de nombreuses protéines identifiées par leur séquence demeurent de structure inconnue, non résolue expérimentalement, et non accessibles aux méthodes de modélisation comparative. L'objet de mon travail de thèse a été d'explorer une approche de prédiction de novo de la structure des protéines. Cette méthode est fondée sur le concept d'alphabet structural, c'est à dire une description de la structure locale des protéines utilisant un nombre réduit de conformations prototypes. A partir de la seule séquence en acides aminés de la structure à prédire, nous avon mis en place une méthode de prédiction de fragments candidats de taille variable, couvrant plus de 98,6% de la structure de la protéine pour une taille moyenne 6,7 résidus. Les fragments prédits nous permettent d'approximer les structures protéiques avec une précision moyenne de 2,2 angströms. L'assemblage de ces fragments est réalisé par un algorithme glouton. Le champ de force OPEP a été optimisé puis implémenté dans l'algorithme glouton pour évaluer la pertinence des modèles générés. L'évaluation, en aveugle, de la méthode a été réalisée, pour la première fois, lors de notre participation à CASP7, ce qui nous a permis d'identifier les faiblesses de la méthode. A l'heure actuelle, l'amélioration du champ de force et de la procédure d'assemblage des fragments, nous permet, dans certains cas, de donner des résultats au niveau ou meilleurs que les serveurs réputés du domaine
In a post-genomic context, plenty of proteins identified by their sequence have no experimentally resolved structure, and fall out the range of application of comparative modelling methods. The goal of my PHD thesis has been to explore a new de novo protein structure prediction approach. Thus approach is based on the concept of structural alphabet, i. E. Of a local description of protein architecture by using a small number of prototype conformations. Starting from the amino acids sequence of the protein to model, we have developed a candidate fragments prediction method covering mode than 98. 6% of the protein structure with an average length of 6. 7 residues. This set of predicted fragments can approximate the protein structures with a precision of less than 2. 2 angströms. A greedy algorithm have been developed in the laboratory to assemble fragments. The OPEP force field has been optimized and then implemented in the greedy assembling procedure to evaluate the relevance of the generated models. Our participation to the CASP7 experiment came out some weaknesses of the method. For now, the improvement of the OPEP force field and the fragment assembly procedure leeds us to generate, in some cases, models as relevant or better than other famous protein structure prediction servers
APA, Harvard, Vancouver, ISO, and other styles
14

Sandt, Christophe. "Identification de micro-organisme pathogènes impliqués dans les infections nosocomiales par spectroscopie infrarouge à transformée de Fourier et méthodes statistiques." Reims, 2003. http://www.theses.fr/2003REIMP204.

Full text
Abstract:
Nous avons utilisé la spectroscopie infrarouge à transformée de Fourier (IRTF) pour identifier des micro-organismes pathogènes isolés en milieu clinique. L'intérêt de la technique dans le typage de souches de Candida albicans a été démontré. Trois applications cliniques ont été réalisées : suivi épidémiologique de patients en service de réanimation, confirmation d'un épisode de transmission nosocomiale chez des nouveaux-nés et suivi épidémiologique des souches d'un patient septicémique. Une base de données comprenant 670 spectres de bactéries Gram - et Gram + appartenant aux 18 espèces et 11 genres les plus fréquents en clinique a été construite. Le taux d'identification est de 84% pour les Gram - et de 97% pour les Gram +. L'usage de la microspectroscopie IRTF pour l'identification précoce de micro-organismes a été évalué. Une base de données comprenant 1570 spectres de bactéries appartenant à 160 souches, 15 espèces et 9 genres fréquemment isolés a été réalisée
We have used Fourier transform-infrared spectroscopy (FTIR) in order to identify pathogenic microorganisms isolated in a clinical set-up. We demonstrated the usefulness of the technique in the typing of Candida albicans. By using this method, four clinical applications have been achieved: the epidemiological follow-up of HIV patients and ICU patients, the demonstration of a nosocomial transmission of a C. Albicans strain among neonates in a maternity ward and the follow-up of strains from a patient with recurrent systemic candidiasis. We have built a database containing more than 245 strains of GRAM- and 270 strains of GRAM+ pathogenic bacteria belonging to 11 genera and 18 species. Validation of the database yielded 84. 2% correct identification for GRAM- and 94. 7% correct identification for GRAM+. We used FTIR microspectroscopy to evaluate the early identification of pathogenic bacteria and yeasts. A total of 100 GRAM- and 60 GRAM+ strains, belonging to 9 genera and 15 species were included
APA, Harvard, Vancouver, ISO, and other styles
15

Madaoui, Hocine. "Prédiction structurale et ingenierie des assemblages macromoléculaires par bioinformatique." Paris 7, 2007. https://tel.archives-ouvertes.fr/tel-00553875.

Full text
Abstract:
La caracterisation a haut debit des interactions proteines-proteines a permis d'etablir les premieres cartes d'interactions de differents organismes modeles, y compris l'homme. Cependant, la caracterisation structurale des assemblages proteiques reste limitee a un nombre tres faible de ces interactions. En mettant en evidence une pression de selection evolutive specifique aux interfaces de complexes proteiques, ce travail a permis d'elucider certains mecanismes evolutifs essentiels a l'association entre proteines qui n'avaient pas ete decrits jusqu'a present. Sur cette base, une nouvelle approche bioinformatique, nommee scotch (surface complementarity trace in complex history), a ete developpee pour predire la structure des assemblages macromoleculaires. Couplee a un programme d'amarrage moleculaire, tel que scotcher, egalement developpe au cours de cette these, cette approche a permis de predire efficacement la structure d'un grand nombre de complexes. Ce travail de these s'est egalement concentre sur l'inhibition des interactions proteiques par des mini-proteines, conÇues de faÇon rationnelle sur la base des structures de complexes. Les resultats obtenus pour deux exemples, celui du complexe asf1 - histone h3/h4 et du complexe gp120 - cd4 temoignent du fort potentiel du design rationnel d'interfaces de complexes pour le developpement de nouvelles strategies therapeutiques
The high-throughput characterization of the protein-protein interactions networks laid the bases for the first interaction maps in all model organisms, including human. In contrast, the structures of the protein assembles are still restricted to a very limited set of interactions. In this work, a specific evolutionary pressure that is exerted at protein interfaces has been revealed. To our knowledge, no such effect had been previously described. Based on this finding, a novel bioinformatic approach, called scotch (surface complementarity trace in complex history) has been developed to predict the structures of protein assembles. Coupled to a docking program, such as scotcher also developed in this work, this approach was shown to predict efficiently the structures of many complexes. This work also focuses on the inhibition of protein interactions by synthetic peptides, rationally designed on the basis of the complex structure. The results obtained for two examples, the asf1 - histone h3/h4 and the gp120 - cd4 complexes emphasize the high interest of rational design of complex interface for the development of novel therapeutic strategies
APA, Harvard, Vancouver, ISO, and other styles
16

Empereur-Mot, Luc. "La fragmentation naturelle des massifs rocheux : modèles de blocs et bases de données tridimensionnelles ; réalisation, exploration géométrique et applications." Chambéry, 2000. http://www.theses.fr/2000CHAMS012.

Full text
Abstract:
"La connaissance du milieu fracturé tridimensionnel est basée sur l'observation directe ou indirecte d'extraits, en une ou deux dimensions. Les difficultés de visualisation en 3 dimensions et l'existence constante de nombreuses lacunes géométriques sont un handicap majeur pour la compréhension des lois de comportement complexes du milieu rocheux fracturé. Des modèles numériques dits "équivalents" répondent isolément à une problématique particulière du réseau de fractures (mécanique, hydraulique, thermique). Pourtant, un grand nombre de propriétés physiques du massif rocheux sont conditionnées par la géométrie et la topologie du système de fractures, qui reste une question d'ordre fondamental. C'est un aspect essentiel que nous traitons dans notre modèle OBSIFRAC (modèle objet pour la simulation de la fracturation). L'observation de sections naturelles justifie que l'on représente, dans un milieu soumis à la seule déformation cassante, les discontinuités par des surfaces planes, interconnectées, sans terminaisons libres, limitant des polyèdres convexes. Dés lors, le réseau de fractures peut être vu comme un assemblage de blocs. Cette hypothèse nous a permis de construire une base de données tridimensionnelles du réseau, décrivant de façon exhaustive les constituants géométriques de l'assemblage en question (fractures, blocs, faces, arêtes et noeuds). A partir d'un "germe" ponctuel, le processus de fragmentation affecte un ou plusieurs bloc(s) formé(ś) éventuellement de plusieurs polyèdres élémentaires. L'orientation et la position des plans de fractures peuvent ^etre définies de façon stochastique, statistique ou déterministe. Nous avons développé 4 moteurs de fragmentation, notés A, B, C, et D, qui diffèrent par le protocole de choix du germe d'une part, et par le choix du ou des blocs à diviser d'autre part. Nous présentons pour chaque scénario, une caractérisation descriptive, puis statistique. "
APA, Harvard, Vancouver, ISO, and other styles
17

Allouti, Faryel. "Visualisation dans les systèmes informatiques coopératifs." Paris 5, 2011. http://www.theses.fr/2011PA05S003.

Full text
Abstract:
Les techniques de classification non supervisée et les outils de visualisation de données complexes sont deux thèmes récurrents dans la communauté d’Extraction et Gestion des Connaissances. A l’intersection de ces deux thèmes se trouvent les méthodes de visualisation tels que le MultiDimensional Scaling ou encore la méthode des cartes auto-organisatrices de Kohonen appelée SOM. La méthode SOM se construit à l’aide d’un algorithme des K-means auquel est ajouté la notion de voisinage permettant de cette façon la conservation de la topologie des données. Ainsi, l’apprentissage rapproche, dans l’espace des données, les centres qui sont voisins sur une grille généralement 2D, jusqu’à former une surface discrète qui est une représentation squelettique de la distribution du nuage à explorer. Dans cette thèse, nous nous sommes intéressés à la visualisation dans un contexte coopératif, où la coopération s'etablit via une communication asynchrone dont le média est la messagerie électronique. Cet outil est apparu avec l’avènement des technologies de l’information et de la communication. Il est très utilisé dans les organisations, il permet une diffusion instantanée et rapide de l’information à plusieurs personnes en même temps,sans se préoccuper de leur présence. Notre objectif consistait en la proposition d’un outil d’exploration visuelle de données textuelles qui sont les fichiers attachés aux messages électroniques. Pour ce faire, nous avons combiné des méthodes de classification automatique et de visualisation. Nous avons étudié l’approche modèle de mélange qui est une contribution très utile pour la classification. Dans notre contexte, nous avons utilisé le modèle de mélange multinomial (Govaert et Nadif, 2007) pour déterminer les classes de fichiers. D’autre part, nous avons étudié l’aspect de visualisation à la fois des classes et des documents à l’aide du positionnement multidimensionnel et DC (Difference of Convex functions) et des cartes auto-organisatrices de Kohonen
Clustering techniques and visualization tools of complex data are two recurring themes in the community of Mining and Knowledge Management. At the intersection of these two themes there are the visualization methods such as multidimensional scaling or the Self-Organizing Maps (SOM). The SOM is constructed using K-means algorithm to which is added the notion of neighborhood allowing in this way the preservation of the topo-logy of the data. Thus, the learning moves closer, in the space of data, the centers that are neighbors on a two dimensions grid generally, to form a discrete surface which is a representation of the distribution of the cloud to explore. In this thesis, we are interested in the visualization in a cooperative context, where co-operation is established via an asynchronous communication and the media is the e-mail. This tool has emerged with the advent of information technology and communication. It is widely used in organizations, it allows an immediate and fast distribution of the in-formation to several persons at the same time, without worrying about their presence. Our objective consisted in proposing a tool of visual exploration of textual data which are files attached to the electronic messages. In order to do this, we combined clustering and visualization methods. We investigated the mixture approach, which is a very useful contribution for classification. In our context, we used the multinomial mixture model (Go-vaert and Nadif, 2007) to determine the classes of files. In addition, we studied the aspect of visualization of the obtained classes and documents using the multidimensional scaling and DC (Difference of Convex functions) and Self-Organizing Maps of Kohonen
APA, Harvard, Vancouver, ISO, and other styles
18

Caille, Agnès. "Perte d'information sur le critère de jugement d'un essai randomisé en cluster." Paris 7, 2014. http://www.theses.fr/2014PA077004.

Full text
Abstract:
Dans un essai randomisé en cluster, on randomise des groupes d'individus plutôt que les individus eux-mêmes et les réponses des individus d'un même cluster sont corrélées. Cette corrélation, usuellement quantifiée par le coefficient de corrélation intraclasse, implique une planification et une analyse statistique spécifiques. Nos travaux ont porté sur deux aspects statistiques liés à la perte d'information sur le critère de jugement dans le contexte particulier d'un essai randomisé en cluster : les données manquantes sur un critère de jugement binaire et la binarisation, avant l'analyse, d'un critère de jugement continu. Nous avons montré que l'imputation multiple par un modèle de régression logistique classique ou à effets aléatoires corrigeait le biais sur l'estimation de l'effet intervention et donnait de très bons taux de couverture, légèrement meilleurs pour le modèle à effets aléatoires. Ensuite, nous avons montré qu'après binarisation d'un critère de jugement continu, le coefficient de corrélation intraclasse était atténué dans les essais en cluster comme dans les études de reproductibilité. Cette atténuation induisait une augmentation de la puissance de l'essai, même si elle ne compensait que partiellement la perte d'information après binarisation. Au final, la puissance de l'essai était donc globalement diminuée après binarisation, bien que dans une moindre mesure par rapport aux essais à randomisation individuelle. Nos résultats apportent des informations supplémentaires utiles pour la planification et l'analyse des essais randomisés en cluster
In cluster randomized trials, clusters of subjects are randomized rather than subjects themselves and the outcomes of subjects within a given cluster are correlated. This correlation, usually quantified by the intraculster correlation coefficient, needs to be taken into account when planning and analyzing a cluster randomized trial. The present work focuses on two statistical issues related to loss of information in the specific context of a cluste randomized trial : incompleteness of data due to missing binary outcomes and loss of information induced after dichotomization of a continuous outcome. We showed that both multiple imputation with classical or random-effects logistic regression model provided unbiased estimates of the intervention effect and showed good coverage properties, even slightly better with a random-effects logistic regression. Then, we showed that the intracluster correlation coefficient attenuation formula, demonstrated in a reliability context, still applied in the cluster randomized trial context. Therefore, in a cluster randomized triall, dichotomizing a continuous outcome actually induced two antagonistic effects : a decrease in power because of loss of information and an increase in power induced ty the attenuation of the intracluster correlation coefficient. We showed that dichotomization was finally associated with a decrease in power because the attenuation of the intracluster correlation coefficient only partly compensated for the loss in power induced by the loss of information. Our results are of interest for better management of cluster randomized trials, both at the planning stage and when analyzing data
APA, Harvard, Vancouver, ISO, and other styles
19

Loisant, Erwan. "Browsing a Classification of an Image Collection." Phd thesis, Université de Nantes, 2005. http://tel.archives-ouvertes.fr/tel-00465952.

Full text
Abstract:
Les données dites multimédia (images, vidéos) se distinguent des données classique par une densité variable d'information et l'impossibilité de normaliser ces données. Du fait de ces particularités, de nouvelles techniques d'indexation et de recherche d'information ont du être etudiées. Il y a principalement deux problèmes a résoudre pour la recherche d'information dans les collections multimédia (ou les bases de données multimédia) : (1) la représentation des données et (2) le processus de recherche du point de vue de l'utilisateur. Dans le cas des bases de données, l'indexation est fortement liée a ces deux problèmes. Dans le cas particulier des images, on distingue trois grandes classes: – la recherche par requêtes formelles, héritée des bases de données classiques ; – la recherche avec boucle de retour, où l'utilisateur fait partie intégrante du processus de recherche ; – la navigation où les images sont organisées en une structure preparée à l'avance, utilisée comme index et comme structure de recherche. C'est sur cette troisième approche que nos travaux se sont portés ; nous nous sommes en effet interessés au treillis de Galois, une structure de graphe permettant d'organiser les éléments d'une relation binaire. Une telle structure de navigation a plusieurs avantages sur une approche classique basée sur des requêtes : en particulier, elle permet d'affranchir l'utilisateur d'une phase de rédaction de requête.
APA, Harvard, Vancouver, ISO, and other styles
20

Lemaire, Florence. "Une structure terminologique pour améliorer l'intelligibilité d'une base de connaissances scientifiques." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0171.

Full text
Abstract:
Les grandes bases de connaissances scientifiques sont elaborees par une communaute de chercheurs au fur et a mesure de l'avancee des recherches. Chaque chercheur modelise son savoir de maniere homo-gene avec le contenu existant de la base et de facon a ce que les autres chercheurs puisse le comprendre. Ce processus incremental et concourant souleve le probleme de l'intelligibilite du contenu d'une base pour un specialiste n'ayant pas participe a son elaboration. Notre travail etudie un role de la terminologie dans les processus de modelisation et de consultation. Trois types d'information necessaires a la comprehension des connaissances representees ont ete identifies: definition de la terminologie, justification de la validite scientifique des connaissances et explication des choix de modelisation effectues. Pour que ces trois types d'informations soient accessibles a partir des connaissances formalisees, nous proposons un environnement informatique compose de quatre bases: une base de connaissances, une base de modelisation, une base de textes et une base terminologique, silex. Cette derniere contient la definition de l'ensemble du vocabulaire utilise dans l'environnement et constitue l'interface entre le vocabulaire de l'utilisateur et le contenu de la base de connaissances et de la base de textes. Par ailleurs, silex permet une modelisation plus homogene car elle favorise un accord entre les concepteurs d'une communaute sur l'acception des termes utilises. Enfin, nous decrivons la structure et le contenu d'un prototype de silex realise dans le cadre de la biologie moleculaire
APA, Harvard, Vancouver, ISO, and other styles
21

Nocua, Cifuentes Jorge Alejandro. "A hybrid power estimation technique to improve high-level power models." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT278.

Full text
Abstract:
Une forte consommation d'énergie est un facteur clé impactant les performances des systèmes sur puce (SoC). Des modèles de puissance précis et efficaces doivent être introduits le plus tôt possible dans le flot de conception lorsque la majeure partie du potentiel d'optimisation est possible. Cependant, l'obtention d’une estimation précise ne peut être assurée en raison du manque de connaissance détaillées de la structure du circuit final. La conception actuelle de SoC repose sur la réutilisation de cœur IP (Intelectual Property) car des informations de bas niveau sur les composants du circuit ainsi que la structure sont disponibles. Ainsi, la précision de l'estimation au niveau du système peut être amélioré en utilisant ces informations et en élaborant une méthode d'estimation qui correspond aux besoins de modélisation de puissance des cœurs IP.La principale contribution de cette thèse est le développement d’une technique d'estimation hybride (HPET), dans laquelle les informations provenant de différents niveaux d'abstraction sont utilisées pour évaluer la consommation d'énergie de manière rapide et précise. HPET est basé sur une méthodologie efficace de caractérisation de la bibliothèque technologique et une approche hybride de modélisation de puissance. Les résultats des simulations obtenues avec HPET ont été validés sur différents circuits de référence synthétisés en utilisant la technologie 28nm "Fully Depleted Silicon On Insulator" (FDSOI). Les résultats expérimentaux montrent que nous pouvons atteindre en moyenne jusqu'à 70X d'amélioration en vitesse de calcul tout en ayant une précision au niveau transistor. Pour les deux types puissance analysés (instantanée et moyenne), les résultats de HPET sont bien corrélés par rapport à ceux calculés avec SPECTRE et Primetime-PX. Cela démontre que HPET est une technique efficace pour améliorer la création de macro-modèles de puissance à haut niveau d'abstraction
High power consumption is a key factor hindering System-on-Chip (SoC) performance. Accurate and efficient power models have to be introduced early in the design flow when most of the optimization potential is possible. However, early accuracy cannot be ensured because of the lack of precise knowledge of the final circuit structure. Current SoC design paradigm relies on IP (Intellectual Property) core reuse since low-level information about circuit components and structure is available. Thus, power estimation accuracy at the system level can be improved by using this information and developing an estimation methodology that fits IP cores power modeling needs.The main contribution of this thesis is the development of a Hybrid Power Estimation Technique (HPET), in which, information coming from different abstraction levels is used to assess the power consumption in a fast and accurate manner. HPET is based on an effective characterization methodology of the technology library and an efficient hybrid power modeling approach. Experimental results, derived using HPET, have been validated on different benchmark circuits synthesized using the 28nm “Fully Depleted Silicon On Insulator” (FDSOI) technology. Experimental results show that in average we can achieve up to 70X speedup while having transistor-level accuracy. For both analyzed power types (instantaneous and average), HPET results are well correlated with respect to the ones computed in SPECTRE and Primetime-PX. This demonstrates that HPET is an effective technique to enhance power macro-modeling creation at high abstraction levels
APA, Harvard, Vancouver, ISO, and other styles
22

Favetto, Benjamin. "Observations bruitées d'une diffusion : estimation, filtrage, applications." Phd thesis, Université René Descartes - Paris V, 2010. http://tel.archives-ouvertes.fr/tel-00524565.

Full text
Abstract:
Les modèles aléatoires basés sur l'observation bruitée de diffusions discrétisées sont couramment utilisés en biologie ou en finance pour rendre compte de la présence d'erreur (ou bruit) entâchant la mesure d'un phénomène dont le comportement est dirigé par une équation différentielle stochastique. Deux questions statistiques sont liées à ces modèles : l'estimation d'un paramètre theta déterminant le comportement de la diffusion cachée, et le calcul du filtre optimal, ou d'une approximation. La première partie de cette thèse porte sur l'étude d'un modèle d'Ornstein-Uhlenbeck bidimensionnel partiellement observé et bruité, en lien avec l'estimation de paramètres de microvascularisation pour un modèle pharmacocinétique stochastique. Plusieurs résultats sur données médicales sont présentés. Dans la seconde partie, des estimateurs pour les paramètres de la diffusion cachée, sont obtenus dans un contexte de données haute fréquence, comme minima de fonctions de contraste ou comme zéros de fonctions d'estimation basées sur des moyennes locales d'observations bruitées. On montre en particulier la consistence et la normalité asymptotique de ces estimateurs. Enfin, la troisième partie étudie la tension de la suite des variances asymptotiques obtenues dans le théorème central limite associé à l'approximation particulaire du filtre et de la prédiction dans un modèle de Markov caché.
APA, Harvard, Vancouver, ISO, and other styles
23

Lueza, Béranger. "Estimation du bénéfice de survie à partir de méta-analyse sur données individuelles et évaluation économique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS268/document.

Full text
Abstract:
Le bénéfice de survie restreint à un horizon temporel donné a été proposé comme mesure alternative aux mesures relatives de l’effet d’un traitement notamment dans le cas de non proportionnalité des risques de décès. Le bénéfice de survie restreint correspond à la différence des survies moyennes entre deux bras de traitement et s’exprime en nombre d’années de vie gagnées. Dans la littérature, cette mesure est présentée comme plus intuitive que le hazard ratio et plusieurs auteurs ont proposé son utilisation pour le design et l’analyse d’un essai clinique. Toutefois, ce n’est pas actuellement la mesure qui est utilisée de manière courante dans les essais randomisés. Cette mesure s’applique quelle que soit la distribution des temps de survie et est adaptée si l’hypothèse des risques proportionnels n’est pas respectée. De plus, le bénéfice de survie restreint peut être utilisé en évaluation médico-économique où la mesure d’un effet absolu est nécessaire (nombre d’années de vie gagnées pondérées ou non par la qualité de vie). Si l’on souhaite estimer le bénéfice de survie restreint à partir d’une méta-analyse sur données individuelles, se pose alors la question de prendre en compte l’effet essai dû à la structure hiérarchique des données. L’objectif de cette thèse était de comparer des méthodes statistiques d’estimation du bénéfice de survie restreint à partir de données individuelles d’une méta-analyse d’essais cliniques randomisés. Le point de départ a été une étude de cas (étude coût-efficacité) réalisée à partir des données de la Meta-Analysis of Radiotherapy in Lung Cancer. Cette étude a montré que les cinq méthodes d’estimation étudiées conduisaient à des estimations différentes du bénéfice de survie et de son intervalle de confiance. Le choix de la méthode d’estimation avait également un impact sur les résultats de l’analyse coût-efficacité. Un second travail a consisté à mener une étude de simulation pour mieux comprendre les propriétés des méthodes d’estimation considérées en termes de biais moyen et d’erreur-type. Enfin, la dernière partie de la thèse a mis en application les enseignements de cette étude de simulation au travers de trois méta-analyses sur données individuelles dans le cancer du nasopharynx et dans le cancer du poumon à petites cellules
The survival benefit restricted up to a certain time horizon has been suggested as an alternative measure to the common relative measures used to estimate the treatment effect, especially in case of non-proportional hazards of death. The restricted survival benefit corresponds to the difference of the two restricted mean survival times estimated for each treatment arm, and is expressed in terms of life years gained. In the literature, this measure is considered as more intuitive than the hazard ratio and many authors have suggested its use for the design and the analysis of clinical trials. However, it is not currently the most used measure in randomized trials. This measure is valid under any distribution of the survival times and is adapted if the proportional hazards assumption does not hold. In addition, the restricted survival benefit can be used in medico-economic evaluation where an absolute measure of the treatment effect is needed (number of [quality adjusted] life years gained). If one wants to estimate the restricted survival benefit from an individual participant data meta-analysis, there is a need to take into account the trial effect due to the hierarchical structure of the data. The aim of this thesis was to compare statistical methods to estimate the restricted survival benefit from an individual participant data meta-analysis of randomized trials. The starting point was a case study (cost-effectiveness analysis) using data from the Meta-Analysis of Radiotherapy in Lung Cancer. This study showed that the five investigated methods yielded different estimates for the restricted survival benefit and its confidence interval. The choice of a method to estimate the survival benefit also impacted on cost-effectiveness results. Our second project consisted in a simulation study to have a better understanding of the properties of the investigated methods in terms of bias and standard error. Finally, the last part of the thesis illustrated the lessons learned from the simulation study through three examples of individual participant data meta-analysis in nasopharynx cancer and in small cell lung cancer
APA, Harvard, Vancouver, ISO, and other styles
24

Bouattour, Mohamed. "Assistance à la conception coopérative fondée sur la sémantique des ouvrages : application au domaine du bois." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2005. http://tel.archives-ouvertes.fr/tel-00086596.

Full text
Abstract:
La complexité de l'utilisation des systèmes d'aide à la conception coopérative dans le
domaine du bâtiment résulte de la complexité même du travail coopératif (difficultés de
traçabilité des actions, non-disposition sur chaque document de l'ensemble des
informations requises pour accomplir une tâche donnée, problèmes de coordination,
‘discontinuité' des données, etc.). En considérant cet état de fait, nous proposons une étude
des activités liées au travail de groupe dans le cadre de projets de conception de bâtiments,
et plus spécifiquement dans le domaine du bois qui nécessite une importante coopération
entre les concepteurs. Cette étude présente ensuite le concept de projet numérique déduit de
l'analyse du modèle des IFC ‘Industry Foundation Classes' et de l'approche de coopération
basée sur l'utilisation de la maquette numérique dans les secteurs de l'industrie automobile
et aéronautique. En effet, l'échange des données basé sur l'utilisation des objets
interopérables constitue une approche nouvelle à approfondir dans le domaine du bâtiment.
Ainsi, afin de concevoir un environnement virtuel coopératif regroupant ces notions
étudiées, nous proposons un modèle tenant compte des informations sémantiques relatives
aux ouvrages échangés par les acteurs. Nous avons mis en œuvre celui-ci dans une
interface d'un système coopératif. Cet outil prototype offre une représentation graphique
d'un contexte coopératif de projet favorisant l'organisation et le regroupement des
informations nécessaires à la conception de bâtiments.
APA, Harvard, Vancouver, ISO, and other styles
25

Gautier, Isabelle. "Evolution quantitative et qualitative des protocoles d'essais cliniques présentés devant un comité d'éthique français." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0660.

Full text
Abstract:
La qualité méthodologique en recherche clinique est une exigence garantissant la fiabilité des expérimentations médicales, au bénéfice des praticiens comme à celui des patients. Cette thèse a pour objectif de mesurer la qualité des essais thérapeutiques présentés au Comité d’Ethique de la Région Sud-Est II et son évolution sur des périodes pluriannuelles. Deux études transversales exhaustives ont été réalisées. La première a pour objet de mesurer l’impact du Règlement Pédiatrique Européen de 2007 sur l’évolution qualitative et quantitative de essais pédiatriques, compte tenu du faible nombre de recherches dans cette population. La deuxième analyse le niveau de qualité des essais contrôlés randomisés en utilisant le score de Jadad et identifie les éléments qui l’influencent. L'outil de travail est constitué des protocoles détenus par le Comité d’Ethique, et non de publications de la littérature. Le concept de qualité et ses deux composantes, éthique et fiabilité scientifique, a été étudié. Les différents outils proposés par les experts pour mesurer la qualité ont été expertisés, ce qui a permis la sélection de l’échelle méthodologiquement la plus adaptée. Le niveau de qualité observé pour les essais pédiatriques est élevé, mais n’a pas été influencé par le Règlement Européen, qui a pu, cependant, entraîner une progression forte du nombre des essais pédiatriques, pouvant être l’indice d’un développement de la recherche en pédiatrie. Concernant les essais contrôlés randomisés, deux marqueurs sont associés à un haut score qualité des protocoles, identifiés après une analyse multivariée : le caractère multicentrique de la recherche et les essais portant sur les médicaments
Methodological quality in clinical research is mandatory to ensure the reliability of medical experiments, with benefits for both practitioners and patients. This PhD thesis aims at measuring the quality of therapeutic trials submitted to the Ethics Committee of the South-East Region II, and its evolution over several years. Two comprehensive cross-sectional studies were conducted. The first explore the field of pediatric research, and aims at measuring the impact of the introduction of European Pediatric Regulation in 2007, on the evolution of the quantity and quality of trials in this field, given the low number of research in this population. The second analyzes the quality of randomized controlled trials using the JADAD score and seeks to identify the elements that influence it. These studies were conducted using the protocols submitted to the Ethics Committee, and not from a literature analysis. The concept of quality was first studied based on their ethical and scientific reliability. The various assessing tools proposed by the experts to measure the quality were appraised, which allowed the selection of the most methodologically scale adapted to this study. Conclusion: we show that the level of quality observed for pediatric trials is high, but was not influenced by the introduction of the European Regulation, which could, on the other hand, have led to an important increase in the number of pediatric trials. Regarding randomized controlled trials, a multivariate analysis allowed the identification of two statistically significant markers associated with high quality score of the protocol: the multicentric character of the research, and the drugs trials
APA, Harvard, Vancouver, ISO, and other styles
26

Griffon, Nicolas. "Modélisation, création et évaluation de ux de terminologies et de terminologies d'interface : application à la production d'examens complémentaires de biologie et d'imagerie médicale." Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00877697.

Full text
Abstract:
Les intérêts théoriques, cliniques et économiques, de l'informatisation des prescriptions au sein des établissements de santé sont nombreux : diminution du nombre de prescriptions, amélioration de leur pertinence clinique, diminution des erreurs médicales... Ces béné ces restent théoriques car l'informatisation des prescriptions est, en pratique, confrontée à de nombreux problèmes, parmi lesquels les problèmes d'interopérabilité et d'utilisabilité des solutions logicielles. L'utilisation de terminologies d'interface au sein de ux de terminologies permettrait de dépasser ces problèmes. L'objectif principal de ce travail était de modéliser et développer ces ux de terminologies pour la production d'examens de biologie et d'imagerie médicale puis d'en évaluer les béné ces en termes d'interopérabilité et d'utilisabilité. Des techniques d'analyse des processus ont permis d'aboutir à une modélisation des ux de terminologies qui semble commune à de nombreux domaines. La création des ux proprement dits repose sur des terminologies d'interface, éditées pour l'occasion, et des référentiels nationaux ou internationaux reconnus. Pour l'évaluation, des méthodes spéci- ques mises au point lors du travail d'intégration d'une terminologie d'interface iconique au sein d'un moteur de recherche de recommandations médicales et d'un dossier médical, ont été appliquées. Les ux de terminologies créés induisaient d'importantes pertes d'information entre les di érents systèmes d'information. En imagerie, la terminologie d'interface de prescription était signi cativement plus simple à utiliser que les autres terminologies, une telle di érence n'a pas été mise en évidence dans le domaine de la biologie. Si les ux de terminologies ne sont pas encore fonctionnels, les terminologies d'interface, elles, sont disponibles pour tout établissement de santé ou éditeur de logiciels et devraient faciliter la mise en place de logiciels d'aide à la prescription.
APA, Harvard, Vancouver, ISO, and other styles
27

Marcilly, Romaric. "Towards a usability knowledge base to support health information technology design and evaluation : Application to Medication Alerting Systems." Thesis, Lille 2, 2014. http://www.theses.fr/2014LIL2S037/document.

Full text
Abstract:
Les Technologies de l’Information en Santé (TIS) sont de plus en plus utilisées pour améliorer la qualité des soins et la sécurité du patient. Cependant, certains problèmes d’utilisabilité peuvent amenuiser leur impact et peuvent même induire de nouveaux problèmes dont la mise en danger du patient. Pour éviter ces effets négatifs, il est notamment nécessaire d’améliorer l’utilisabilité des TIS ce qui requiert l’application de connaissances d’utilisabilité éprouvées. Les connaissances en utilisabilité appliquée aux TIS sont rares, éparpillées à travers diverses supports et peu utilisables. Par ailleurs, leur couverture en termes de problèmes d’utilisabilité est peu connue. Ce travail a deux objectifs: (i) participer à l’amélioration de l’accumulation de la connaissance en utilisabilité pour les TIS, (ii) fournir une connaissance structurée sur l’utilisabilité des TIS et dont la couverture est établie. Le domaine d’application est celui des systèmes d’alerte médicamenteux.Méthode. Deux analyses indépendantes de la littérature ont été menées : d’un côté, identifier et organiser les problèmes d’utilisabilité des systèmes d’alerte médicamenteux ainsi que leurs conséquences ; de l’autre, identifier et synthétiser les principes d’utilisabilité spécifiques à ces systèmes. Les résultats de ces analyses ont été croisés afin de connaitre la couverture desdits principes en termes de problèmes d’utilisabilité.Résultats. La revue systématique a identifié 13 types de problèmes d’utilisabilité dans les systèmes d’alerte médicamenteux. Les conséquences de ces problèmes sur le clinicien et son système de travail sont variées et ont un grand pouvoir de nuisance (e.g., fatigue, erreur d’interprétation). Au total, 63 principes d’utilisabilité permettent de rendre compte de tous les problèmes d’utilisabilité identifiés. Ils sont organisés en 6 thèmes : améliorer le ratio signal-bruit, être en adéquation avec l’activité des cliniciens, supporter le travail collaboratif, afficher les informations pertinentes, rendre le système transparent et fournir des outils utiles. Le croisement des deux ensembles de données révèle une bonne correspondance entre les principes d’utilisabilité énoncés et les problèmes d’utilisabilité réellement observés.Discussion. Une liste structurée des principes d’utilisabilité illustrés par des exemples réels de leur violation a été développée à partir de ce travail. Cette liste peut aider les concepteurs et les experts en Facteurs Humains à comprendre et à appliquer les principes d’utilisabilité durant la conception et l’évaluation de systèmes d’alerte médicamenteux. L’utilisabilité appliquée aux TIS est une discipline relativement récente qui souffre d’un déficit de structuration et de capitalisation de ses connaissances. Ce travail montre qu’il est possible d’accumuler et de structurer les données d’utilisabilité des TIS. Ce travail pourrait être poursuivi en développant une base de connaissance en utilisabilité appliquée aux TIS afin de tendre vers une « utilisabilité fondée sur les preuves »
Health Information Technology (HIT) is increasingly implemented to improve healthcare quality and patient safety. However, some usability issues may reduce their impact and even induce new problems (including patient safety issues). To avoid those negative outcomes, amongst other actions, HIT usability must be improved. This action requires applying validated usability knowledge. However, usability knowledge applied to HIT is scattered across several sources, is not structured and is hardly usable. Moreover, its coverage regarding related usability flaws is not known. This work has two aims: (i) to participate in improving the accumulation of usability knowledge for HIT and (ii) to provide synthetic structured easy-to-use HIT usability knowledge with a clear coverage. Those aims are applied to medication alerting systems.Method.Two independent analyses of the literature have been performed. On the one hand, usability flaws and their consequences for the clinicians and the work system have been searched and organized; on the other hand, existing usability design principles specific to medication alerting systems have been synthesized. Results of both analyses have been matched together. Results.A systematic review identified 13 types of usability flaws in medication alerting systems. Consequences on the clinicians and the work system are varied: they greatly impede the clinicians and negatively impact the work system (e.g., alert fatigue, alert misinterpretation). Sixty-three usability design principles dedicated to medication alerting systems are identified. They represent six themes: improve the signal-to-noise ratio, fit clinicians’ workflow, support collaborative work, display relevant information, make the system transparent and provide useful tools. The matching between usability flaws and principles is quite good.Discussion.As a result of this work, a list of usability design principles illustrated by actual instances of their violation has been developed. It may help designers and Human Factors experts understand and apply usability design principles when designing and evaluating medication alerting systems. Usability applied to HIT is a recent research field that suffers from a deficit of structured knowledge. This work shows that it is possible to accumulate and structure usability knowledge. It could be carried on by developing a usability knowledge base dedicated to HIT in order to strive towards “evidence-based usability”
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography