Dissertations / Theses on the topic 'Bio-statistique'

To see the other types of publications on this topic, follow the link: Bio-statistique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 29 dissertations / theses for your research on the topic 'Bio-statistique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Douib, Ameur. "Algorithmes bio-inspirés pour la traduction automatique statistique." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0005/document.

Full text
Abstract:
Différentes composantes des systèmes de traduction automatique statistique sont considérées comme des problèmes d'optimisations. En effet, l'apprentissage du modèle de traduction, le décodage et l'optimisation des poids de la fonction log-linéaire sont trois importants problèmes d'optimisation. Savoir définir les bons algorithmes pour les résoudre est l'une des tâches les plus importantes afin de mettre en place un système de traduction performant. Plusieurs algorithmes d'optimisation sont proposés pour traiter les problèmes d'optimisation du décodeur. Ils sont combinés pour résoudre, d'une part, le problème de décodage qui produit une traduction dans la langue cible d'une phrase source, d'autre part, le problème d'optimisation des poids des scores combinés dans la fonction log-linéaire pour d'évaluation des hypothèses de traduction au cours du décodage. Le système de traduction statistique de référence est basé sur un algorithme de recherche en faisceau pour le décodage, et un algorithme de recherche linéaire pour l'optimisation des poids associés aux scores. Nous proposons un nouveau système de traduction avec un décodeur entièrement basé sur les algorithmes génétiques. Les algorithmes génétiques sont des algorithmes d'optimisation bio-inspirés qui simulent le processus de l'évolution naturelle des espèces. Ils permettent de manipuler un ensemble de solutions à travers plusieurs itérations pour converger vers des solutions optimales. Ce travail, nous permet d'étudier l'efficacité des algorithmes génétiques pour la traduction automatique statistique. L'originalité de notre proposition est de proposer deux algorithmes : un algorithme génétique, appelé GAMaT, comme décodeur pour un système de traduction statistique à base de segments, et un algorithme génétique, appelé GAWO, pour l'optimisation des poids de la fonction log-linéaire afin de l'utiliser comme fonction fitness pour GAMaT. Nous proposons également, une approche neuronale pour définir une nouvelle fonction fitness pour GAMaT. Cette approche consiste à utiliser un réseau de neurones pour l'apprentissage d'une fonction qui combine plusieurs scores, évaluant différents aspects d'une hypothèse de traduction, combinés auparavant dans la fonction log-linéaire, et qui prédit le score BLEU de cette hypothèse de traduction. Ce travail, nous a permis de proposer un nouveau système de traduction automatique statistique ayant un décodeur entièrement basé sur des algorithmes génétiques
Different components of statistical machine translation systems are considered as optimization problems. Indeed, the learning of the translation model, the decoding and the optimization of the weights of the log-linear function are three important optimization problems. Knowing how to define the right algorithms to solve them is one of the most important tasks in order to build an efficient translation system. Several optimization algorithms are proposed to deal with decoder optimization problems. They are combined to solve, on the one hand, the decoding problem that produces a translation in the target language for each source sentence, on the other hand, to solve the problem of optimizing the weights of the combined scores in the log-linear function to fix the translation evaluation function during the decoding. The reference system in statistical translation is based on a beam-search algorithm for the decoding, and a line search algorithm for optimizing the weights associated to the scores. We propose a new statistical translation system with a decoder entirely based on genetic algorithms. Genetic algorithms are bio-inspired optimization algorithms that simulate the natural process of evolution of species. They allow to handle a set of solutions through several iterations to converge towards optimal solutions. This work allows us to study the efficiency of the genetic algorithms for machine translation. The originality of our work is the proposition of two algorithms: a genetic algorithm, called GAMaT, as a decoder for a phrase-based machine translation system, and a second genetic algorithm, called GAWO, for optimizing the weights of the log-linear function in order to use it as a fitness function for GAMaT. We propose also, a neuronal approach to define a new fitness function for GAMaT. This approach consists in using a neural network to learn a function that combines several scores, which evaluate different aspects of a translation hypothesis, previously combined in the log-linear function, and that predicts the BLEU score of this translation hypothesis. This work allowed us to propose a new machine translation system with a decoder entirely based on genetic algorithms
APA, Harvard, Vancouver, ISO, and other styles
2

Douib, Ameur. "Algorithmes bio-inspirés pour la traduction automatique statistique." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0005.

Full text
Abstract:
Différentes composantes des systèmes de traduction automatique statistique sont considérées comme des problèmes d'optimisations. En effet, l'apprentissage du modèle de traduction, le décodage et l'optimisation des poids de la fonction log-linéaire sont trois importants problèmes d'optimisation. Savoir définir les bons algorithmes pour les résoudre est l'une des tâches les plus importantes afin de mettre en place un système de traduction performant. Plusieurs algorithmes d'optimisation sont proposés pour traiter les problèmes d'optimisation du décodeur. Ils sont combinés pour résoudre, d'une part, le problème de décodage qui produit une traduction dans la langue cible d'une phrase source, d'autre part, le problème d'optimisation des poids des scores combinés dans la fonction log-linéaire pour d'évaluation des hypothèses de traduction au cours du décodage. Le système de traduction statistique de référence est basé sur un algorithme de recherche en faisceau pour le décodage, et un algorithme de recherche linéaire pour l'optimisation des poids associés aux scores. Nous proposons un nouveau système de traduction avec un décodeur entièrement basé sur les algorithmes génétiques. Les algorithmes génétiques sont des algorithmes d'optimisation bio-inspirés qui simulent le processus de l'évolution naturelle des espèces. Ils permettent de manipuler un ensemble de solutions à travers plusieurs itérations pour converger vers des solutions optimales. Ce travail, nous permet d'étudier l'efficacité des algorithmes génétiques pour la traduction automatique statistique. L'originalité de notre proposition est de proposer deux algorithmes : un algorithme génétique, appelé GAMaT, comme décodeur pour un système de traduction statistique à base de segments, et un algorithme génétique, appelé GAWO, pour l'optimisation des poids de la fonction log-linéaire afin de l'utiliser comme fonction fitness pour GAMaT. Nous proposons également, une approche neuronale pour définir une nouvelle fonction fitness pour GAMaT. Cette approche consiste à utiliser un réseau de neurones pour l'apprentissage d'une fonction qui combine plusieurs scores, évaluant différents aspects d'une hypothèse de traduction, combinés auparavant dans la fonction log-linéaire, et qui prédit le score BLEU de cette hypothèse de traduction. Ce travail, nous a permis de proposer un nouveau système de traduction automatique statistique ayant un décodeur entièrement basé sur des algorithmes génétiques
Different components of statistical machine translation systems are considered as optimization problems. Indeed, the learning of the translation model, the decoding and the optimization of the weights of the log-linear function are three important optimization problems. Knowing how to define the right algorithms to solve them is one of the most important tasks in order to build an efficient translation system. Several optimization algorithms are proposed to deal with decoder optimization problems. They are combined to solve, on the one hand, the decoding problem that produces a translation in the target language for each source sentence, on the other hand, to solve the problem of optimizing the weights of the combined scores in the log-linear function to fix the translation evaluation function during the decoding. The reference system in statistical translation is based on a beam-search algorithm for the decoding, and a line search algorithm for optimizing the weights associated to the scores. We propose a new statistical translation system with a decoder entirely based on genetic algorithms. Genetic algorithms are bio-inspired optimization algorithms that simulate the natural process of evolution of species. They allow to handle a set of solutions through several iterations to converge towards optimal solutions. This work allows us to study the efficiency of the genetic algorithms for machine translation. The originality of our work is the proposition of two algorithms: a genetic algorithm, called GAMaT, as a decoder for a phrase-based machine translation system, and a second genetic algorithm, called GAWO, for optimizing the weights of the log-linear function in order to use it as a fitness function for GAMaT. We propose also, a neuronal approach to define a new fitness function for GAMaT. This approach consists in using a neural network to learn a function that combines several scores, which evaluate different aspects of a translation hypothesis, previously combined in the log-linear function, and that predicts the BLEU score of this translation hypothesis. This work allowed us to propose a new machine translation system with a decoder entirely based on genetic algorithms
APA, Harvard, Vancouver, ISO, and other styles
3

Dortel, Emmanuelle. "Croissance de l'albacore (Thunnus albacares) de l'Océan Indien : de la modélisation statistique à la modélisation bio-énergétique." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20035/document.

Full text
Abstract:
Depuis le début des années 1960, la croissance de l'albacore fait l'objet d'une attention particulière tant dans le domaine de la recherche que pour la gestion des pêcheries. Dans l'océan Indien, la gestion du stock d'albacores, sous la juridiction le Commission Thonière de l'Océan Indien (CTOI), souffre de nombreuses incertitudes associées à la courbe de croissance actuellement considérée. En particulier, des lacunes subsistent dans notre connaissance des processus biologiques et écologiques élémentaires régulant la croissance. Leur connaissance est pourtant fondamentale pour comprendre la productivité des stocks et leur capacité de résistance à la pression de pêche et aux changements océanographiques en cours. À travers la modélisation, cette étude se propose d'améliorer les connaissances actuelles sur la croissance de la population d'albacore de l'océan Indien et de renforcer ainsi les avis scientifiques sur l'état du stock. Alors que la plupart des études sur la croissance de l'albacore s'appuient sur une seule source de données, nous avons mis en œuvre un modèle hiérarchique Bayésien qui exploite diverses sources d'informations sur la croissance, i.e. des estimations d'âge obtenues par otolithométrie, des analyses de progressions modales et les taux de croissance individuels issus du marquage-recapture, et intègre explicitement des connaissances d'experts et les incertitudes associées à chaque source de données ainsi qu'au processus de modélisation. En particulier, le modèle de croissance a été couplé un à modèle d'erreurs dans les estimations d'âge par otolithométrie apportant une amélioration significative des estimations d'âge et des paramètres de croissance en résultant et permettant une meilleure évaluation de la fiabilité des estimations. Les courbes de croissances obtenues constituent une avancée majeure dans la représentation du patron de croissance actuellement utilisé dans les évaluations de stock d'albacore. Elles démontrent que l'albacore présente une croissance en phases, caractérisée par une forte accélération en fin de phase juvénile. Cependant, elles n'apportent aucune information sur les mécanismes biologiques et écologiques à l'origine de ces phases de croissance. Afin de mieux comprendre les facteurs impliqués dans l'accélération de la croissance, nous avons mis en œuvre un modèle bio-énergétique s'appuyant sur les principes de la théorie des bilans dynamiques d'énergie (DEB). Deux hypothèses apparaissant comme les plus pertinentes ont été testées : (i) une faible disponibilité alimentaire liée à une forte compétition inter et intra-spécifique chez les jeunes albacores formant des bancs et (ii) un changement dans le régime alimentaire des adultes s'accompagnant de la consommation de proies plus énergétiques. Il apparait que ces deux hypothèses sont susceptibles d'expliquer, au moins partiellement, l'accélération de la croissance
Since the early 1960s, the growth of yellowfin has been enjoyed a particular attention both in the research field and for fisheries management. In the Indian Ocean, the management of yellowfin stock, under the jurisdiction of the Indian Ocean Tuna Commission (IOTC), suffers from much uncertainty associated with the growth curve currently considered. In particular, there remain gaps in our knowledge of basic biological and ecological processes regulating growth. Their knowledge is however vital for understanding the stocks productivity and their resilience abilities to fishing pressure and oceanographic changes underway.Through modelling, this study aims to improve current knowledge on the growth of yellowfin population of the Indian Ocean and thus strengthen the scientific advice on the stock status. Whilst most studies on yellowfin growth only rely on one data source, we implemented a hierarchical Bayesian model that exploits various information sources on growth, i.e. direct age estimates obtained through otolith readings, analyzes of modal progressions and individual growth rates derived from mark-recapture experiments, and takes explicitely into account the expert knowledge and the errors associated with each dataset and the growth modelling process. In particular, the growth model was coupled with an ageing error model from repeated otolith readings which significantly improves the age estimates as well as the resulting growth estimates and allows a better assessment of the estimates reliability. The growth curves obtained constitute a major improvement of the growth pattern currently used in the yellowfin stock assessment. They demonstrates that yellowfin exhibits a two-stanzas growth, characterized by a sharp acceleration at the end of juvenile stage. However, they do not provide information on the biological and ecological mechanisms that lie behind the growth acceleration.For a better understanding of factors involved in the acceleration of growth, we implemented a bioenergetic model relying on the principles of Dynamic Energy Budget theory (DEB). Two major assumptions were investigated : (i) a low food availability during juvenile stage in relation with high intra and inter-specific competition and (ii) changes in food diet characterized by the consumption of more energetic prey in older yellowfin. It appears that these two assumption may partially explain the growth acceleration
APA, Harvard, Vancouver, ISO, and other styles
4

Hadj, Amor Khaoula. "Classification et inférence de réseaux de gènes à partir de séries temporelles très courtes : application à la modélisation de la mémoire transcriptionnelle végétale associée à des stimulations sonores répétées." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES037.

Full text
Abstract:
Les avancées des nouvelles technologies de séquençage ont ouvert l'accès aux données d'expression dynamique des gènes à l'échelle du génome. Les approches ensemblistes classiques, habituellement utilisées en biologie, ne permettent pas la compréhension des mécanismes moléculaires complexes sous-jacents. Par conséquent, le développement de méthodes analytiques permettant d'appréhender de manière plus satisfaisante ce type de données représente un défi majeur pour la biologie contemporaine. Cependant, les coûts techniques et expérimentaux associés aux données de transcriptomiques limitent la dimension des jeux de données réels et, par conséquent, leurs méthodes d'analyse. Au cours de ma thèse, à l'interface entre les mathématiques appliquées et la biologie végétale, j'ai travaillé sur la mise en place d'une méthode d'inférence de réseaux de régulations dynamiques adaptée à un jeu de données réelles et originales décrivant l'effet de stimulations sonores répétées sur l'expression des gènes d'Arabidopsis thaliana. J'ai ainsi proposé une méthode de classification adaptée aux séries temporelles très courtes qui regroupe les gènes par variations temporelles, permettant d'ajuster la dimension des données à l'inférence de réseau. La comparaison de cette méthode aux méthodes classiques a permis de montrer qu'elle était la plus adaptée aux séries temporelles très courtes avec un pas de temps irrégulier. Pour l'inférence de réseau dynamique, j'ai proposé un modèle qui prend en compte la variabilité intra-classe et qui intègre un terme constant décrivant explicitement la stimulation externe du système. L'évaluation de ces méthodes de classification et d'inférence a été effectuée sur des données de séries temporelles simulées et réelles, ce qui a permis d'établir la bonne qualité des performance en terme de précision, de rappel et d'erreur de prédiction. L'implémentation de ces méthodes a permis d'étudier le priming de la réponse immunitaire d'Arabidopsis thaliana par des ondes sonores répétées. Nous avons montré l'existence de la formation d'une mémoire transcriptionnelle associée aux stimulations qui fait passer la plante d'un état naïf à un état primé et plus résistant en 3 jours. Cet état résistant, entretenu d'une part par les stimulations et d'autre part par des cascades de facteurs de transcription, augmente la résistance immunitaire de la plante en déclenchant l'expression de gènes de résistance chez la plante saine, en diversifiant le nombre de gènes participant à la réponse immunitaire et en intensifiant l'expression de nombreux gènes de résistance. L'inférence du réseau décrivant la mémoire transcriptionnelle associée aux stimulations sonores répétées nous a permis d'identifier les propriétés qu'elle confère à la plante. Ces prédictions, validées expérimentalement, ont montré par exemple que l'augmentation de la cadence entre stimulations ne permettait pas d'obtenir un gain de résistance plus conséquent et que la mémoire transcriptionnelle ne dure que 1.5 jours après la dernière stimulation
Advancements in new sequencing technologies have paved the way for accessing dynamic gene expression data on a genome-wide scale. Classical ensemble approaches traditionally used in biology fall short of comprehending the underlying the complex molecular mechanisms. Consequently, developing analytical methods to understand further such data poses a significant challenge for current biology. However, the technical and experimental costs associated with transcriptomic data severely limit the dimension of real datasets and their analytical methods. Throughout my thesis, at the intersection of applied mathematics and plant biology, I focused on implementing an inference method for dynamic regulatory networks tailored to a real and original dataset describing the effect of repeated acoustic stimulations on genes expressions of Arabidopsis thaliana. I proposed a clustering method adapted to very-short time series that groups genes based on temporal variations, adjusting the data dimension for network inference. The comparison of this method with classical methods showed that it was the most suitable for very-short time series with irregular time points. For the network inference, I proposed a model that takes into account intra-class variability and integrates a constant term explicitly describing the external stimulation of the system. The evaluation of these classification and inference methods was conducted on simulated and real-time series data, which established their high performance in terms of accuracy, recall, and prediction error. The implementation of these methods to study the priming of the immune response of Arabidopsis thaliana through repeated sound waves. We demonstrated the formation of a transcriptional memory associated with stimulations, transitioning the plant from a naïve state to a primed and more resistant state within 3 days. This resistant state, maintained by stimulations and transcription factor cascades, enhances the plant's immune resistance by triggering the expression of resistance genes in healthy plants, diversifying the number of genes involved in the immune response, and intensifying the expression of numerous resistance genes. The inference of the network describing the transcriptional memory associated with repeated sound stimulations allowed us to identify the properties conferred to plants. Experimentally validated predictions showed that increasing the frequency between stimulations does not result in a more significant resistance gain, and the transcriptional memory lasts only 1.5 days after the last stimulation
APA, Harvard, Vancouver, ISO, and other styles
5

Playe, Benoit. "Méthodes d'apprentissage statistique pour le criblage virtuel de médicament." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM010/document.

Full text
Abstract:
Le processus de découverte de médicaments a un succès limité malgré tous les progrès réalisés. En effet, on estime actuellement que le développement d'un médicament nécessite environ 1,8 milliard de dollars américains sur environ 13 ans. Nous nous concentrons dans cette thèse sur des approches statistiques qui criblent virtuellement un grand ensemble de composés chimique contre un grand nombre de protéines. Leurs applications sont polyvalentes : elles permettent d’identifier des candidats médicaments pour des cibles thérapeutiques connues, d’anticiper des effets secondaires potentiels, ou de proposer de nouvelles indications thérapeutiques pour des médicaments connus. Cette thèse est conçue selon deux cadres d'approches de criblage virtuel : les approches dans lesquelles les données sont décrites numériquement sur la base des connaissances des experts, et les approches basées sur l'apprentissage automatique de la représentation numérique à partir du graphe moléculaire et de la séquence protéique. Nous discutons ces approches et les appliquons pour guider la découverte de médicaments
The rational drug discovery process has limited success despite all the advances in understanding diseases, and technological breakthroughs. Indeed, the process of drug development is currently estimated to require about 1.8 billion US dollars over about 13 years on average. Computational approaches are promising ways to facilitate the tedious task of drug discovery. We focus in this thesis on statistical approaches which virtually screen a large set of compounds against a large set of proteins, which can help to identify drug candidates for known therapeutic targets, anticipate potential side effects or to suggest new therapeutic indications of known drugs. This thesis is conceived following two lines of approaches to perform drug virtual screening : data-blinded feature-based approaches (in which molecules and proteins are numerically described based on experts' knowledge), and data-driven feature-based approaches (in which compounds and proteins numerical descriptors are learned automatically from the chemical graph and the protein sequence). We discuss these approaches, and also propose applications of virtual screening to guide the drug discovery process
APA, Harvard, Vancouver, ISO, and other styles
6

Massé, Pierre-Yves. "Autour De L'Usage des gradients en apprentissage statistique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS568/document.

Full text
Abstract:
Nous établissons un théorème de convergence locale de l'algorithme classique d'optimisation de système dynamique RTRL, appliqué à un système non linéaire. L'algorithme RTRL est un algorithme en ligne, mais il doit maintenir une grande quantités d'informations, ce qui le rend impropre à entraîner des systèmes d'apprentissage de taille moyenne. L'algorithme NBT y remédie en maintenant une approximation aléatoire non biaisée de faible taille de ces informations. Nous prouvons également la convergence avec probabilité arbitrairement proche de un, de celui-ci vers l'optimum local atteint par l'algorithme RTRL. Nous formalisons également l'algorithme LLR et en effectuons une étude expérimentale, sur des données synthétiques. Cet algorithme met à jour de manière adaptive le pas d'une descente de gradient, par descente de gradient sur celui-ci. Il apporte ainsi une réponse partielle au problème de la fixation numérique du pas de descente, dont le choix influence fortement la procédure de descente et qui doit sinon faire l'objet d'une recherche empirique potentiellement longue par le praticien
We prove a local convergence theorem for the classical dynamical system optimization algorithm called RTRL, in a nonlinear setting. The rtrl works on line, but maintains a huge amount of information, which makes it unfit to train even moderately big learning models. The NBT algorithm turns it by replacing these informations by a non-biased, low dimension, random approximation. We also prove the convergence with arbitrarily close to one probability, of this algorithm to the local optimum reached by the RTRL algorithm. We also formalize the LLR algorithm and conduct experiments on it, on synthetic data. This algorithm updates in an adaptive fashion the step size of a gradient descent, by conducting a gradient descent on this very step size. It therefore partially solves the issue of the numerical choice of a step size in a gradient descent. This choice influences strongly the descent and must otherwise be hand-picked by the user, following a potentially long research
APA, Harvard, Vancouver, ISO, and other styles
7

Blum, Michael G. B. "Statistique bayésienne et applications en génétique des populations." Habilitation à diriger des recherches, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00766196.

Full text
Abstract:
Les approches statistiques en génétique des populations visent deux objectifs distincts qui sont la description des données et la possibilité d'inférer les processus évolutifs qui ont généré les patrons observés. Le premier chapitre de ce manuscrit décrit nos apports théoriques et méthodologiques concernant le calcul bayésien approché (Approximate Bayesian Computation) qui permet de réaliser l'objectif d'inférence des processus évolutifs. Je décris des résultats asymptotiques qui permettent de décrire des propriétés statistiques du calcul bayésien approché. Ces résultats mettent en évidence à la fois l'intérêt des méthodes dites avec ajustement qui reposent sur des équations de régression et aussi l'intérêt de réduire la dimension des descripteurs statistiques utilisés dans le calcul bayésien approché. Je présente ensuite une méthode originale de calcul bayésien approché qui permet de manière conjointe d'effectuer des ajustements et de réduire la dimension des descripteurs statistiques. Une comparaison des différentes méthodes de réduction de dimension clos le premier chapitre. Le deuxième chapitre est consacré à l'objectif de description des données et se place plus particulièrement dans un cadre spatial. Les méthodes statistiques proposées reposent sur le concept d'isolement par la distance qui est une forme particulière de l'autocorrélation spatiale où la corrélation entre individus décroit avec la distance. Une approche originale de krigeage nous permet de caractériser des patrons d'isolement par la distance non-stationnaire où la manière avec laquelle la corrélation entre individus décroit avec la distance dépend de l'espace. Une deuxième extension que nous proposons est celle d'isolement par la distance anisotrope que nous caractérisons et testons à partir d'une équation de régression. La conclusion de ce manuscrit met l'accent sur les problèmes d'interprétation des résultats statistiques, l'importance de l'échantillonnage et la nécessité de tester l'adéquation des modèles aux données. Je conclus par des perspectives qui se proposent de faire passer l'analyse statistique bayésienne à l'échelle des données massives produites en génétique.
APA, Harvard, Vancouver, ISO, and other styles
8

Ramstein, Gérard. "Application de techniques de fouille de données en Bio-informatique." Habilitation à diriger des recherches, Université de Nantes, 2012. http://tel.archives-ouvertes.fr/tel-00706566.

Full text
Abstract:
Les travaux de recherche présentés par l'auteur ont pour objet l'application de techniques d'extraction de connaissances à partir de données (ECD) en biologie. Deux thèmes majeurs de recherche en bio-informatique sont abordés : la recherche d'homologues distants dans des familles de protéines et l'analyse du transcriptome. La recherche d'homologues distants à partir de séquences protéiques est une problématique qui consiste à découvrir de nouveaux membres d'une famille de protéines. Celle-ci partageant généralement une fonction biologique, l'identification de la famille permet d'investiguer le rôle d'une séquence protéique. Des classifieurs ont été développés pour discriminer une superfamille de protéines particulière, celle des cytokines. Ces protéines sont impliquées dans le système immunitaire et leur étude est d'une importance cruciale en thérapeutique. La technique des Séparateurs à Vastes Marges (SVM) a été retenue, cette technique ayant donné les résultats les plus prometteurs pour ce type d'application. Une méthode originale de classification a été conçue, basée sur une étape préliminaire de découverte de mots sur-représentés dans la famille d'intérêt. L'apport de cette démarche est d'utiliser un dictionnaire retreint de motifs discriminants, par rapport à des techniques utilisant un espace global de k-mots. Une comparaison avec ces dernières méthodes montre la pertinence de cette approche en termes de performances de classification. La seconde contribution pour cette thématique porte sur l'agrégation des classifieurs basée sur des essaims grammaticaux. Cette méthode vise à optimiser l'association de classifieurs selon des modèles de comportement sociaux, à la manière des algorithmes génétiques d'optimisation. Le deuxième axe de recherche traite de l'analyse des données du transcriptome. L'étude du transcriptome représente un enjeu considérable, tant du point de vue de la compréhension des mécanismes du vivant que des applications cliniques et pharmacologiques. L'analyse implicative sur des règles d'association, développée initialement par Régis Gras, a été appliquée aux données du transcriptome. Une approche originale basée sur des rangs d'observation a été proposée. Deux applications illustrent la pertinence de cette méthode : la sélection de gènes informatifs et la classification de tumeurs. Enfin, une collaboration étroite avec une équipe INSERM dirigée par Rémi Houlgatte a conduit à l'enrichissement d'une suite logicielle dédiée aux données de puces à ADN. Cette collection d'outils dénommée MADTOOLS a pour objectifs l'intégration de données du transcriptome et l'aide à la méta-analyse. Une application majeure de cette suite utilise les données publiques relatives aux pathologies musculaires. La méta-analyse, en se basant sur des jeux de données indépendants, améliore grandement la robustesse des résultats. L'étude systématique de ces données a mis en évidence des groupes de gènes co-exprimés de façon récurrente. Ces groupes conservent leur propriété discriminante au travers de jeux très divers en termes d'espèces, de maladies ou de conditions expérimentales. Cette étude peut évidemment se généraliser à l'ensemble des données publiques concernant le transcriptome. Elle ouvre la voie à une approche à très grande échelle de ce type de données pour l'étude d'autres pathologies humaines.
APA, Harvard, Vancouver, ISO, and other styles
9

Moulin, Serge. "Use of data analysis techniques to solve specific bioinformatics problems." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCD049/document.

Full text
Abstract:
De nos jours, la quantité de données génétiques séquencées augmente de manière exponentielle sous l'impulsion d'outils de séquençage de plus en plus performants, tels que les outils de séquençage haut débit en particulier. De plus, ces données sont de plus en plus facilement accessibles grâce aux bases de données en ligne. Cette plus grande disponibilité des données ouvre de nouveaux sujets d'étude qui nécessitent de la part des statisticiens et bio-informaticiens de développer des outils adaptés. Par ailleurs, les progrès constants de la statistique, dans des domaines tels que le clustering, la réduction de dimension, ou les régressions entre autres, nécessitent d'être régulièrement adaptés au contexte de la bio-informatique. L’objectif de cette thèse est l’application de techniques avancées de statistiques à des problématiques de bio-informatique. Dans ce manuscrit, nous présentons les résultats de nos travaux concernant le clustering de séquences génétiques via Laplacian eigenmaps et modèle de mélange gaussien, l'étude de la propagation des éléments transposables dans le génome via un processus de branchement, l'analyse de données métagénomiques en écologie via des courbes ROC ou encore la régression polytomique ordonnée pénalisée par la norme l1
Nowadays, the quantity of sequenced genetic data is increasing exponentially under the impetus of increasingly powerful sequencing tools, such as high-throughput sequencing tools in particular. In addition, these data are increasingly accessible through online databases. This greater availability of data opens up new areas of study that require statisticians and bioinformaticians to develop appropriate tools. In addition, constant statistical progress in areas such as clustering, dimensionality reduction, regressions and others needs to be regularly adapted to the context of bioinformatics. The objective of this thesis is the application of advanced statistical techniques to bioinformatics issues. In this manuscript we present the results of our works concerning the clustering of genetic sequences via Laplacian eigenmaps and Gaussian mixture model, the study of the propagation of transposable elements in the genome via a branching process, the analysis of metagenomic data in ecology via ROC curves or the ordinal polytomous regression penalized by the l1-norm
APA, Harvard, Vancouver, ISO, and other styles
10

Belkhir, Nacim. "Per Instance Algorithm Configuration for Continuous Black Box Optimization." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS455/document.

Full text
Abstract:
Cette thèse porte sur la configurationAutomatisée des algorithmes qui vise à trouver le meilleur paramétrage à un problème donné ou une catégorie deproblèmes.Le problème de configuration de l'algorithme revient doncà un problème de métaFoptimisation dans l'espace desparamètres, dont le métaFobjectif est la mesure deperformance de l’algorithme donné avec une configuration de paramètres donnée.Des approches plus récentes reposent sur une description des problèmes et ont pour but d’apprendre la relationentre l’espace des caractéristiques des problèmes etl’espace des configurations de l’algorithme à paramétrer.Cette thèse de doctorat porter le CAPI (Configurationd'Algorithme Par Instance) pour résoudre des problèmesd'optimisation de boîte noire continus, où seul un budgetlimité d'évaluations de fonctions est disponible. Nous étudions d'abord' les algorithmes évolutionnairesPour l'optimisation continue, en mettant l'accent sur deux algorithmes que nous avons utilisés comme algorithmecible pour CAPI,DE et CMAFES.Ensuite, nous passons en revue l'état de l'art desapproches de configuration d'algorithme, et lesdifférentes fonctionnalités qui ont été proposées dansla littérature pour décrire les problèmesd'optimisation de boîte noire continue.Nous introduisons ensuite une méthodologie générale Pour étudier empiriquement le CAPI pour le domainecontinu, de sorte que toutes les composantes du CAPIpuissent être explorées dans des conditions réelles.À cette fin, nous introduisons également un nouveau Banc d'essai de boîte noire continue, distinct ducélèbre benchmark BBOB, qui est composé deplusieurs fonctions de test multidimensionnelles avec'différentes propriétés problématiques, issues de lalittérature.La méthodologie proposée est finalement appliquée 'àdeux AES. La méthodologie est ainsi, validéempiriquement sur le nouveau banc d’essaid’optimisation boîte noire pour des dimensions allant jusqu’à 100
This PhD thesis focuses on the automated algorithm configuration that aims at finding the best parameter setting for a given problem or a' class of problem. The Algorithm Configuration problem thus amounts to a metal Foptimization problem in the space of parameters, whosemetaFobjective is the performance measure of the given algorithm at hand with a given parameter configuration. However, in the continuous domain, such method can only be empirically assessed at the cost of running the algorithm on some problem instances. More recent approaches rely on a description of problems in some features space, and try to learn a mapping from this feature space onto the space of parameter configurations of the algorithm at hand. Along these lines, this PhD thesis focuses on the Per Instance Algorithm Configuration (PIAC) for solving continuous black boxoptimization problems, where only a limited budget confessionnalisations available. We first survey Evolutionary Algorithms for continuous optimization, with a focus on two algorithms that we have used as target algorithm for PIAC, DE and CMAFES. Next, we review the state of the art of Algorithm Configuration approaches, and the different features that have been proposed in the literature to describe continuous black box optimization problems. We then introduce a general methodology to empirically study PIAC for the continuous domain, so that all the components of PIAC can be explored in real Fworld conditions. To this end, we also introduce a new continuous black box test bench, distinct from the famous BBOB'benchmark, that is composed of a several multiFdimensional test functions with different problem properties, gathered from the literature. The methodology is finally applied to two EAS. First we use Differential Evolution as'target algorithm, and explore all the components of PIAC, such that we empirically assess the best. Second, based on the results on DE, we empirically investigate PIAC with Covariance Matrix Adaptation Evolution Strategy (CMAFES) as target algorithm. Both use cases empirically validate the proposed methodology on the new black box testbench for dimensions up to100
APA, Harvard, Vancouver, ISO, and other styles
11

Posani, Lorenzo. "Inference and modeling of biological networks : a statistical-physics approach to neural attractors and protein fitness landscapes." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE043/document.

Full text
Abstract:
L'avènement récent des procédures expérimentales à haut débit a ouvert une nouvelle ère pour l'étude quantitative des systèmes biologiques. De nos jours, les enregistrements d'électrophysiologie et l'imagerie du calcium permettent l'enregistrement simultané in vivo de centaines à des milliers de neurones. Parallèlement, grâce à des procédures de séquençage automatisées, les bibliothèques de protéines fonctionnelles connues ont été étendues de milliers à des millions en quelques années seulement. L'abondance actuelle de données biologiques ouvre une nouvelle série de défis aux théoriciens. Des méthodes d’analyse précises et transparentes sont nécessaires pour traiter cette quantité massive de données brutes en observables significatifs. Parallèlement, l'observation simultanée d'un grand nombre d'unités en interaction permet de développer et de valider des modèles théoriques visant à la compréhension mécanistique du comportement collectif des systèmes biologiques. Dans ce manuscrit, nous proposons une approche de ces défis basée sur des méthodes et des modèles issus de la physique statistique, en développent et appliquant ces méthodes au problèmes issu de la neuroscience et de la bio-informatique : l’étude de la mémoire spatiale dans le réseau hippocampique, et la reconstruction du paysage adaptatif local d'une protéine
The recent advent of high-throughput experimental procedures has opened a new era for the quantitative study of biological systems. Today, electrophysiology recordings and calcium imaging allow for the in vivo simultaneous recording of hundreds to thousands of neurons. In parallel, thanks to automated sequencing procedures, the libraries of known functional proteins expanded from thousands to millions in just a few years. This current abundance of biological data opens a new series of challenges for theoreticians. Accurate and transparent analysis methods are needed to process this massive amount of raw data into meaningful observables. Concurrently, the simultaneous observation of a large number of interacting units enables the development and validation of theoretical models aimed at the mechanistic understanding of the collective behavior of biological systems. In this manuscript, we propose an approach to both these challenges based on methods and models from statistical physics. We present an application of these methods to problems from neuroscience and bioinformatics, focusing on (1) the spatial memory and navigation task in the hippocampal loop and (2) the reconstruction of the fitness landscape of proteins from homologous sequence data
APA, Harvard, Vancouver, ISO, and other styles
12

Luu, Keurcien. "Application de l'Analyse en Composantes Principales pour étudier l'adaptation biologique en génomique des populations." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS053/document.

Full text
Abstract:
L'identification de gènes ayant permis à des populations de s'adapter à leur environnement local constitue une des problématiques majeures du domaine de la génétique des populations. Les méthodes statistiques actuelles répondant à cette problématique ne sont plus adaptées aux données de séquençage nouvelle génération (NGS). Nous proposons dans cette thèse de nouvelles statistiques adaptées à ces nouveaux volumes de données, destinées à la détection de gènes sous sélection. Nos méthodes reposent exclusivement sur l'Analyse en Composantes Principales, dont nous justifierons l'utilisation en génétique des populations. Nous expliquerons également les raisons pour lesquelles nos approches généralisent les méthodes statistiques existantes et démontrons l'intérêt d'utiliser une approche basée sur l'Analyse en Composantes Principales en comparant nos méthodes à celles de l'état de l'art. Notre travail a notamment abouti au développement de pcadapt, une librairie R permettant l'utilisation de nos statistiques de détection sur des données génétiques variées
Identifying genes involved in local adaptation is of major interest in population genetics. Current statistical methods for genome scans are no longer suited to the analysis of Next Generation Sequencing (NGS) data. We propose new statistical methods to perform genome scans on massive datasets. Our methods rely exclusively on Principal Component Analysis which use in population genetics will be discussed extensively. We also explain the reasons why our approaches can be seen as extensions of existing methods and demonstrate how our PCA-based statistics compare with state-of-the-art methods. Our work has led to the development of pcadapt, an R package designed for outlier detection for various genetic data
APA, Harvard, Vancouver, ISO, and other styles
13

Jung, Matthieu. "Évolution du VIH : méthodes, modèles et algorithmes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00842785.

Full text
Abstract:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leurs liens de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent. Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares , basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global. L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3500) du sous-type C du VIH-1, responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes.
APA, Harvard, Vancouver, ISO, and other styles
14

Guindon, Stephane. "Méthodes et algorithmes pour l'approche statistique en phylogénie." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2003. http://tel.archives-ouvertes.fr/tel-00843343.

Full text
Abstract:
La variabilité des vitesses d'évolution entre sites est un phénomène très répandu au sein des séquences génétiques. Celui-ci est généralement modélisé par une loi gamma dont le paramètre de forme doit être estimé. Nous proposons ici une méthode visant à déterminer la valeur efficace de ce paramètre, c'est-à-dire la valeur la plus adaptée à l'estimation de topologies d'arbres. Nous montrons que (1)les valeurs efficaces conduisent généralement à sous-estimer la variabilité des vitesses et (2), celles-ci offrent une amélioration significative en termes de précision topologique comparé aux cas ou l'inférence d'arbre est réalisée à partir des vraies valeurs (inconnues) du paramètre. Outre la paramétrisation adéquate des modèles de substitution, l'exploration de l'espace des topologies d'arbres est un point sensible pour bon nombre de méthodes d'inférences de phylogénies. Nous proposons ici une nouvelle méthode pour l'estimation d'arbres de vraisemblances maximales, basée sur la modification simultanée de la topologie de l'arbre et de ses longueurs de branches. Nous montrons que cette approche autorise la construction de topologies particulièrement fiables à partir de l'analyse de plusieurs centaines de séquences.
APA, Harvard, Vancouver, ISO, and other styles
15

Charafeddine, Jinan. "Caractérisation et intégration des signaux musculaires pour le pilotage d'un exosquelette des membres inférieurs lors d' activités locomotrices." Thesis, université Paris-Saclay, 2021. http://www.theses.fr/2021UPASW005.

Full text
Abstract:
Les activités quotidiennes sont une source de fatigue et de stress pour les personnes souffrant de spasticité des membres inférieurs. Une meilleure compréhension des mécanismes du mouvement permet ainsi de proposer des modèles innovant de contrôle des exosquelettes d’assistance. L’assistance doit être introduite tout en conservant le fait que le contrôle du patient reste prioritaire. Cette thèse vise à développer une telle application dans le contexte de la marche sur l’exosquelette développé au Laboratoire d’Ingénierie des Systèmes de Versailles (LISV). Les résultats applicatifs de cette thèse s’appuient sur la base de données enregistrée au laboratoire END-ICAP avec des capteurs de la marche pour des sujets sains, des personnes IMC et des personnes ayant eu un AVC. La principale contribution est la proposition d’une nouvelle méthode de contrôle neuromoteur d’un exosquelette interactif permettant la réadaptation nécessaire des membres. Elle consiste à déterminer et à complémenter les consignes motrices liées au mouvement d’un patient, tout en gardant son expertise dans son mouvement, l’assistance au besoin et la détection de son intention de provoquer ce mouvement à partir d’une fusion d’information. Les résultats obtenus montrent que l’indice proposé caractérise la relation de la différence d’angle avec un mouvement de référence pour chaque articulation, permet de compenser dynamiquement les mouvements de façon efficace et sûre, applicable pour les études de pathologie de la marche et pour le contrôle de la marche dans l’assistance robotique des personnes
Daily activities are a source of fatigue and stress for people with lower limb spasticity. A better understanding of the mechanisms of movement thus makes it possible to propose innovative models for control-ling assistance exoskeletons. The assistance should be introduced while retaining the fact that patient control remains a priority. This thesis aims to develop such an application in the context of walking on the exoskeleton developed at the Laboratory of Systems Engineering of Versailles (LISV). The application results of this thesis are based on the database recorded at the END-ICAP laboratory with gait sensors for healthy subjects, PC people, and people with stroke. The main contribution is the proposal of a new method of neuromotor control of an interactive exoskeleton allowing the necessary rehabilitation of the members. It consists of determining and supplementing the motor instructions related to a patient’s movement while retaining his expertise in his movement, assisting when necessary, and detecting his intention to cause this movement from a fusion of information. The results obtained show that the proposed index characterizes the relationship of the angle difference with a reference movement for each joint, which allows a dynamic compensation of the movements in an efficient and safe manner, applicable for gait pathology studies, and for walking control in robotic assistance for people
APA, Harvard, Vancouver, ISO, and other styles
16

Jauffret, Adrien. "De l'auto-évaluation aux émotions : approche neuromimétique et bayésienne de l'apprentissage de comportements complexes impliquant des informations multimodales." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112120/document.

Full text
Abstract:
Cette thèse a pour objectif la conception d’une architecture de contrôle bio-inspirée permettant à un robot autonome de naviguer sur de grandes distances. Le modèle développé permet également d’améliorer la compréhension des mécanismes biologiques impliqués. De précédents travaux ont montré qu’un modèle de cellules de lieu, enregistrées chez le rat, permettait à un robot mobile d’apprendre des comportements de navigation robustes, tels qu’une ronde ou un retour au nid, à partir d’associations entre lieu et action. La reconnaissance d’un lieu ne reposait alors que sur des informations visuelles. L’ambiguïté de certaines situations (e.g. un long couloir) ne permettait pas de naviguer dans de grands environnements. L’ajout d’autres modalités constitue une solution efficace pour augmenter la robustesse dans des environnements complexes. Cette solution nous a permis d’identifier les briques minimales nécessaires à la fusion d’informations multimodales, d’abord par le biais d’un conditionnement simple entre 2 modalités sensorielles, puis par la formalisation d’un modèle, plus générique, de prédictions inter-modales. C’est un mécanisme bas niveau qui permet de générer une cohérence perceptive : l’ensemble des modalités sensorielles s’entraident pour ne renvoyer qu’une perception claire et cohérente aux mécanismes décisionnels de plus haut niveau. Les modalités les plus corrélées sont ainsi capables de combler les informations manquantes d’une modalité défaillante (cas pathologique). Ce modèle implique la mise en place d’un système de prédiction et donc une capacité à détecter de la nouveauté dans ses perceptions. Ainsi, le modèle est également capable de détecter une situation inattendue ou anormale et possède donc une capacité d’auto-évaluation : l’évaluation de ses propres perceptions. Nous nous sommes ensuite mis à la recherche des propriétés fondamentales à tout système d'auto-évaluation.La première propriété essentielle a été de constater qu’évaluer un comportement sensorimoteur revient à reconnaître une dynamique entre sensation et action, plutôt que la simple reconnaissance d’une forme sensorielle. La première brique encapsule donc un modèle interne minimaliste des interactions du robot avec son environnement, qui est la base sur laquelle le système fera des prédictions.La seconde propriété essentielle est la capacité à extraire l’information pertinente par le biais de calculs statistiques. Il est nécessaire que le robot apprenne à capturer les invariants statistiques en supprimant l’information incohérente. Nous avons donc montré qu’il était possible d’estimer une densité de probabilité par le biais d’un simple conditionnement. Cet apprentissage permet de réaliser l’équivalent d’une inférence bayésienne. Le système estime la probabilité de reconnaître un comportement à partir de la reconnaissance d’informations statistiques apprises. C’est donc par la mise en cascade de simples conditionnements que le système peut apprendre à estimer les moments statistiques d’une dynamique (moyenne, variance, asymétrie, etc...). La non-reconnaissance de cette dynamique lui permet de détecter qu’une situation est anormale.Mais détecter un comportement inhabituel ne nous renseigne pas pour autant sur son inefficacité. Le système doit également surveiller l’évolution de cette anomalie dans le temps pour pouvoir juger de la pertinence du comportement. Nous montrons comment un contrôleur émotionnel peut faire usage de cette détection de nouveauté pour réguler le comportement et ainsi permettre au robot d’utiliser la stratégie la plus adaptée à la situation rencontrée. Pour finir, nous avons mis en place une procédure de frustration permettant au robot de lancer un appel à l’aide lorsqu’il détecte qu’il se retrouve dans une impasse. Ce réseau de neurones permet au robot d’identifier les situations qu’il ne maîtrise pas dans le but d’affiner son apprentissage, à l’instar de certains processus développementaux
The goal of this thesis is to build a bio-inspired architecture allowing a robot to autonomouslynavigate over large distances. In a cognitive science point of view, the model also aim at improv-ing the understanding of the underlying biological mechanisms. Previous works showed thata computational model of hippocampal place cells, based on neurobiological studies made onrodent, allows a robot to learn robust navigation behaviors. The robot can learn a round or ahoming behavior from a few associations between places and actions. The learning and recog-nition of a place were only defined by visual information and shows limitations for navigatinglarge environments.Adding other sensorial modalities is an effective solution for improving the robustness of placesrecognition in complex environments. This solution led us to the elementary blocks requiredwhen trying to perform multimodal information merging. Such merging has been done, first,by a simple conditioning between 2 modalities and next improved by a more generic model ofinter-modal prediction. In this model, each modality learns to predict the others in usual situa-tions, in order to be able to detect abnormal situations and to compensate missing informationof the others. Such a low level mechanism allows to keep a coherent perception even if onemodality is wrong. Moreover, the model can detect unexpected situations and thus exhibit someself-assessment capabilities: the assessment of its own perception. Following this model of self-assessment, we focus on the fundamental properties of a system for evaluating its behaviors.The first fundamental property that pops out is the statement that evaluating a behavior is anability to recognize a dynamics between sensations and actions, rather than recognizing a sim-ple sensorial pattern. A first step was thus to take into account the sensation/action couplingand build an internal minimalist model of the interaction between the agent and its environment.Such of model defines the basis on which the system will build predictions and expectations.The second fundamental property of self-assessment is the ability to extract relevant informa-tion by the use of statistical processes to perform predictions. We show how a neural networkcan estimate probability density functions through a simple conditioning rule. This probabilis-tic learning allows to achieve bayesian inferences since the system estimates the probability ofobserving a particular behavior from statistical information it recognizes about this behavior.The robot estimates the different statistical momentums (mean, variance, skewness, etc...) of abehavior dynamics by cascading few simple conditioning. Then, the non-recognition of such adynamics is interpreted as an abnormal behavior.But detecting an abnormal behavior is not sufficient to conclude to its inefficiency. The systemmust also monitor the temporal evolution of such an abnormality to judge the relevance of thebehavior. We show how an emotional meta-controller can use this novelty detection to regu-late behaviors and so select the best appropriate strategy in a given context. Finally, we showhow a simple frustration mechanism allows the robot to call for help when it detects potentialdeadlocks. Such a mechanism highlights situations where a skills improvement is possible, soas some developmental processes
APA, Harvard, Vancouver, ISO, and other styles
17

Xayaphoummine, Alain. "Simulations et expériences sur le repliement de l'ARN : prédictions statistiques des pseudonoeuds in silico et réalisation de commutateurs ARN par transcription in vitro." Phd thesis, Université Louis Pasteur - Strasbourg I, 2004. http://tel.archives-ouvertes.fr/tel-00221533.

Full text
Abstract:
Modélisation du coût thermodynamique des structures pseudoneuds.
Développement d'un algorithme d'accélération exacte de la dynamique de monte Carlo.
Développement et interfaçage web d'un code de repliement de molécule ARN incluant les motifs pseudoneuds. Rendu cinématique de la dynamique de repliement.
Etude statistique de la prévalence des pseudoneouds dans des séquences biologiques et aléatoires.
Vérification expérimentale du code repliement. Démonstration expérimentale de l'existence d'un super-code guidant pour le repliement natif des ARN.
APA, Harvard, Vancouver, ISO, and other styles
18

Causo, Matteo. "Neuro-Inspired Energy-Efficient Computing Platforms." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10004/document.

Full text
Abstract:
Les Big Data mettent en évidence tous les défauts du paradigme de l'informatique classique. Au contraire, le Neuro-Inspiré traite les Big Data comme ressources pour progresser. Dans cette thèse, nous adoptons les principes de Hierarchical Temporal Memory (HTM) comme références neuroscientifiques et nous élaborons sur la façon dont le Bayesian Machine Learning (BML) mène les approches dans le Neuro-Inspiré à s’unifier et à atteindre nos objectives: (i) la simplification et l'amélioration des algorithmes de BML et (ii) l'approche au Neuro-Inspiré avec une prospective Ultra-Low-Power. Donc, nous nous efforçons d'apporter le traitement intelligent proche aux sources de données et de populariser le BML sur l'électronique strictement limitées tels que les appareils portables, mettable et implantables. Cependant, les algorithmes de BML ont besoin d’être optimisés. En fait, leur mise en œuvre en HW est ni efficaces, ni réalisables en raison de la mémoire, la puissance de calcul requises. Nous proposons un algorithme moins complexe, en ligne, distribué et non paramétrique et montrons de meilleurs résultats par rapport aux solutions de l’état de l’art. En fait, nous gagnons deux ordres de grandeur de réduction en complexité au niveau algorithmique et un autre ordre de grandeur grâce à des techniques traditionnelles d'optimisation HW. En particulier, nous concevons une preuve de concept sur une plateforme FPGA pour l'analyse en temps réel d’un flux de données. Enfin, nous démontrons d’être en mesure de résumer les ultimes découvertes du domaine du BML sur un algorithme généralement valide qui peut être mis en œuvre en HW et optimisé pour des applications avec des ressources limitées
Big Data highlights all the flaws of the conventional computing paradigm. Neuro-Inspired computing and other data-centric paradigms rather address Big Data to as resources to progress. In this dissertation, we adopt Hierarchical Temporal Memory (HTM) principles and theory as neuroscientific references and we elaborate on how Bayesian Machine Learning (BML) leads apparently totally different Neuro-Inspired approaches to unify and meet our main objectives: (i) simplifying and enhancing BML algorithms and (ii) approaching Neuro-Inspired computing with an Ultra-Low-Power prospective. In this way, we aim to bring intelligence close to data sources and to popularize BML over strictly constrained electronics such as portable, wearable and implantable devices. Nevertheless, BML algorithms demand for optimizations. In fact, their naïve HW implementation results neither effective nor feasible because of the required memory, computing power and overall complexity. We propose a less complex on-line, distributed nonparametric algorithm and show better results with respect to the state-of-the-art solutions. In fact, we gain two orders of magnitude in complexity reduction with only algorithm level considerations and manipulations. A further order of magnitude in complexity reduction results through traditional HW optimization techniques. In particular, we conceive a proof-of-concept on a FPGA platform for real-time stream analytics. Finally, we demonstrate we are able to summarize the ultimate findings in Machine Learning into a generally valid algorithm that can be implemented in HW and optimized for strictly constrained applications
APA, Harvard, Vancouver, ISO, and other styles
19

Boukinda, Mbadinga Morgan Laetitia. "Surface de réponse des efforts de houle des structures jackets colonisées par des bio-salissures." Nantes, 2007. http://www.theses.fr/2007NANT2158.

Full text
Abstract:
Lors de la conception ou de l'analyse d'une structure pétrolière offshore, une des étapes les plus délicates concerne le calcul des sollicitations, actions exercées par la houle, le vent et les courants. Il recouvre plusieurs niveaux d'aléas ou d'incertitudes concernant les paramètres caractérisants l'environnement marin et le calcul de sollicitations. En phase de requalification, cette problèmatique est accentuée par les présences d'organismes marins, appelés bio-salissures marines. En effet, très rapidement, les structures implantées sont couvertes d'une multitude d'organismes marins. Ce phénomène est particulièrement difficile à quantifier compte tenu de la diversité des organismes, des conditions saisonnières et de la compétition à laquelle se livrent les différentes espèces pour leur survie. Son influence sur une structure pétrolière offshore peut être mesurée à plusieurs niveaux : gêne ou interdit des inspections visuelles du support sous-jacent, procédures de nettoyage coûteuses pour les industries pétrolières, augmentation des efforts hydrodynamiques au niveau de la structure. On propose dans ce mémoire une modélisation probabiliste de l'évolution de la colonisation de bio-salissures en cinq régions du Golfe de Guinée et une modélisation probabiliste, sous forme de surface de réponse physique, du calcul de sollicitations sur des structures Jacket en présence de bio-salissures. On conclut sur une étude de cas mettant en avant des études de sensibilité et d'incertitudes en vue d'améliorer, de compléter, d'intégrer et de rendre plus opérationnels les méthodes et outils de requalification disponibles
When designing or re-assessing an offshore structure, one of the most delicate stages relates to the calculation of the solicitations : actions exerted by the swell, the wind and the currents. It comes partly from the randomness or uncertainties that concern the marine environment as well as the modelling of loading. Presence of marine growth makes these questions more sensitive. The generic term of marine growth includes the vegetable species (algae …) and animal (mussel, anemones, corals …). Indeed very quickly, the structures are covered of a multitude of marine organisms. It remains particularly difficult to quantify this phenomenon by taking into account the diversity of the organism, the seasonal conditions and the competition to which the various species for their survival are delivered. Its influence on an offshore structure can be measured on several levels : obstruct or prohibits a visual inspection of the subjacent support, expensive procedures of cleaning for oil industries, increase in the hydrodynamic efforts on the level of the structure. This work aims to provide a probabilistic modelling of marine growth evolution in five regions in the Gulf of Guinea. A physical matrix response surface is then built in view to provide a probabilistic modelling of the environmental loading on Jacket offshore structures in presence of marine growth. A study case allows performing sensitivity and uncertainty studies in view to improve, supplement, integrate and make more operational the methods and tools for structural reassessment
APA, Harvard, Vancouver, ISO, and other styles
20

Benavides, Parra Juan Carlos. "Brownian motion of colloidal particles located near different types of interfaces." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1011.

Full text
Abstract:
Le mouvement Brownien dans l’eau de colloïdes proches d’interfaces de différente nature (eau/air, eau/verre, …) est étudié en utilisant une technique de microscopie numérique permettant de reconstruire les trajectoires individuelles en trois dimensions. Des accords satisfaisants entre les trajectoires et les modèles théoriques publiés ont été trouvés pour les cas les plus simples. En outre, nous proposons une approche théorique capable de passer de la configuration d'interface libre (type eau-air) à l'état lié (type liquide-solide). Nous avons également considéré dans ce cadre la situation dans laquelle une interface solide a été fonctionnalisée et rendue hydrophobe pour comparer le mouvement Brownien près de l’interface avec la même interface solide rendue très hydrophile par un traitement au plasma UV-ozone qui crée des groupes hydroxyle (Si-OH ). Nous avons également étudié l'interaction colloïdale et hydrodynamique avec des interfaces recouvertes d’une membrane biomimétique phospholipidique molle (DOPC en phase fluide) ou gelée (DMPC en phase gel), toutes deux recouvrant le verre (SiO2)
We explore the Brownian motion of colloids near different interfaces (water-air, water solid,…) using three dimensional digital video microscopy and reconstruction of singles colloids trajectories in 3D over time. Satisfying agreements between data and published theoretical models were found for simplest cases. In addition we propose a theoretical approach able to transit from the free interface configuration (water-air) to the bound condition (liquid-solid). We also considered within this frame the situation where a solid interface was functionalized with a grafted short alkyl chain (flat and hydrophobic fixed wall) to compare with same solid interface made hydrophilic from a UV-ozone plasma treatment that creates hydroxyl groups (Si-OH). From the stabilization of a phospholipid bilayer, we also studied colloidal and hydrodynamic interaction with a soft (DOPC in Lα) or freezed (DMPC at Lβ) biomimetic membrane covering the solid interface (SiO2 glass)
APA, Harvard, Vancouver, ISO, and other styles
21

Brouard, Céline. "Inférence de réseaux d'interaction protéine-protéine par apprentissage statistique." Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00845692.

Full text
Abstract:
L'objectif de cette thèse est de développer des outils de prédiction d'interactions entre protéines qui puissent être appliqués en particulier chez l'homme, sur les protéines qui constituent un réseau avec la protéine CFTR. Cette protéine, lorsqu'elle est défectueuse, est impliquée dans la mucoviscidose. Le développement de méthodes de prédiction in silico peut s'avérer utile pour suggérer aux biologistes de nouvelles cibles d'interaction et pour mieux expliquer les fonctions des protéines présentes dans ce réseau. Nous proposons une nouvelle méthode pour le problème de la prédiction de liens dans un réseau. Afin de bénéficier de l'information des données non étiquetées, nous nous plaçons dans le cadre de l'apprentissage semi-supervisé. Nous abordons ce problème de prédiction comme une tâche d'apprentissage d'un noyau de sortie, appelée régression à noyau de sortie. Un noyau de sortie est supposé coder les proximités existantes entre les noeuds du graphe et l'objectif est d'approcher ce noyau à partir de descriptions appropriées en entrée. L'utilisation de l'astuce du noyau dans l'ensemble de sortie permet de réduire le problème d'apprentissage à partir de paires à un problème d'apprentissage d'une fonction d'une seule variable à valeurs dans un espace de Hilbert. En choisissant les fonctions candidates pour la régression dans un espace de Hilbert à noyau reproduisant à valeur opérateur, nous développons, comme dans le cas de fonctions à valeurs scalaires, des outils de régularisation. Nous établissons en particulier des théorèmes de représentation dans le cas supervisé et dans le cas semi-supervisé, que nous utilisons ensuite pour définir de nouveaux modèles de régression pour différentes fonctions de coût, appelés IOKR-ridge et IOKR-margin. Nous avons d'abord testé l'approche développée sur des données artificielles, des problèmes test ainsi que sur un réseau d'interaction protéine-protéine chez la levure S. Cerevisiae et obtenu de très bons résultats. Puis nous l'avons appliquée à la prédiction d'interactions entre protéines dans le cas d'un réseau construit autour de la protéine CFTR.
APA, Harvard, Vancouver, ISO, and other styles
22

Marzin, Anahita. "Indicateurs biologiques de la qualité écologique des cours d’eau : variabilités et incertitudes associées." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0002/document.

Full text
Abstract:
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement
Sensitive biological measures of ecosystem quality are needed to assess, maintain or restore the ecological conditions of rivers. Since our understanding of these complex systems is imperfect, river management requires recognizing variability and uncertainty of bio-assessment for decision-making. Based on the analysis of national data sets (~ 1654 sites), the main goals of this work were (1) to test some of the assumptions that shape bio-indicators and (2) address the temporal variability and the uncertainty associated to prediction of reference conditions.(1) This thesis highlights (i) the predominant role of physiographic factors in shaping biological communities in comparison to human pressures (defined at catchment, riparian corridor and reach scales), (ii) the differences in the responses of biological indicators to the different types of human pressures (water quality, hydrological, morphological degradations) and (iii) more generally, the greatest biological impacts of water quality alterations and impoundments. (2) A Bayesian method was developed to estimate the uncertainty associated with reference condition predictions of a fish-based bio-indicator (IPR+). IPR+ predictive uncertainty was site-dependent but showed no clear trend related to the environmental gradient. By comparison, IPR+ temporal variability was lower and sensitive to an increase of human pressure intensity. This work confirmed the advantages of multi-metric indexes based on functional metrics in comparison to compositional metrics. The different sensitivities of macrophytes, fish, diatoms and macroinvertebrates to human pressures emphasize their complementarity in assessing river ecosystems. Nevertheless, future research is needed to better understand the effects of interactions between pressures and between pressures and the environment
APA, Harvard, Vancouver, ISO, and other styles
23

Sun, Shengnan. "Modeling and mechanical characterization of a bio-sourced composite by non-contact kinematic field measurements." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22450/document.

Full text
Abstract:
Ce travail de thèse a été réalisé dans le cadre du projet de l'ANR DEMETHER lancé en 2011. L'objectif du projet était d'élaborer un matériau composite d'origine bio-sourcée pour l'isolation thermique des bâtiments existants. Ces biocomposites sont constitués de broyats de tiges de tournesol liés par une biomatrice à base de chitosane. Mon travail s'est concentré essentiellement sur la caractérisation et la modélisation des propriétés mécaniques des broyats et du biocomposite. La première phase du travail a permis de mettre en évidence l'influence de la zone de prélèvement des échantillons dans la tige ainsi que celle de l'humidité relative sur le module d'Young. Une approche statistique a également permis de prendre en considération le caractère diffus des tiges sur leurs propriétés mécaniques. Par la suite, un travail d'homogénéisation basé sur la morphologie et les caractéristiques des constituants de l'écorce a conduit à une estimation des propriétés élastiques globales de celle-ci. La deuxième phase du travail a permis de caractériser mécaniquement le biocomposite en compression par une méthode de mesures de champs sans contact développée au laboratoire. Le caractère hétérogène des champs de déformation a ainsi été directement relié aux constituants et au taux de chitosane
This thesis was carried out within the framework of the project Demether started in 2011. The objective of this project is to develop a bio-based composite material for thermal insulation of existing buildings. These biocomposites consist of shredded sunflower stems linked by a chitosan-based biomatrix. My work is mainly focused on the characterization and the modeling of the mechanical properties of both the sunflower stem and the biocomposite. The first part of this work highlighted the influence of both the specimen sampling location and the conditioning relative humidity on the Young's modulus of sunflower stem. A statistical approach enabled us to take into account the diffuse nature of the stems on their mechanical properties. Thereafter, a homogenization work was carried out. It led to an estimate of the elastic property of the bark based on the morphology and the characteristics of the constituents. In the second phase of the work, the mechanical behavior of the biocomposite under compression was characterized by applying a full-field measurement technique. The heterogeneous nature of the deformation fields was directly linked to the constituents and the chitosan mass percentage of the biocomposite
APA, Harvard, Vancouver, ISO, and other styles
24

Luhandjula, Thierry. "Algorithme de reconnaissance visuelle d’intentions : application au pilotage automatique d’un fauteuil roulant." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1092/document.

Full text
Abstract:
Dans cette thèse, nous proposons une approche méthodologique et algorithmique pour la reconnaissance visuelle d'intentions, basée sur la rotation et le mouvement vertical de la tête et de la main. Le contexte dans lequel cette solution s'inscrit est celui d'une personne handicapée, dont la mobilité est assurée par un fauteuil roulant. Le système proposé constitue une alternative intéressante aux interfaces classiques de type manette, boutons pneumatiques, etc. La séquence vidéo, composée de 10 images, est traitée en utilisant différentes méthodes pour construire ce qui dans cette thèse est désigné par « courbe d'intention ». Une base de règles est également proposée pour classifier chaque courbe d'intention. Pour la reconnaissance basée sur les mouvements de la tête, une approche utilisant la symétrie du visage est proposée pour estimer la direction désirée à partir de la rotation de la tête. Une Analyse en Composantes Principales (ACP) est utilisée pour détecter l'intention de varier la vitesse de déplacement du fauteuil roulant, à partir du mouvement vertical de la tête. Pour la reconnaissance de la direction basée sur la rotation de la main, une approche utilisant à la fois la symétrie verticale de la main et un algorithme d'apprentissage (réseaux neuronaux, machines à vecteurs supports ou k-means), permet d’obtenir les courbes d'intentions exploitées par la suite pour la détection de la direction désirée. Une autre approche, s’appuyant sur l'appariement de gabarits de la région contenant les doigts, est également proposée. Pour la reconnaissance de la vitesse variable basée sur le mouvement vertical de la main, deux approches sont proposées. La première utilise également l'appariement de gabarits de la région contenant les doigts, et la deuxième se base sur un masque en forme d'ellipse, pour déterminer la position verticale de la main. Les résultats obtenus montrent de bonnes performances en termes de classification aussi bien des positions individuelles dans chaque image, que des courbes d'intentions. L’approche de reconnaissance visuelle d’intentions proposée produit dans la très grande majorité des cas un meilleur taux de reconnaissance que la plupart des méthodes proposées dans la littérature. Par ailleurs, cette étude montre également que la tête et la main en rotation et en mouvement vertical constituent des indicateurs d'intention appropriés
In this thesis, a methodological and algorithmic approach is proposed, for visual intention recognition based on the rotation and the vertical motion of the head and the hand. The context for which this solution is intended is that of people with disabilities whose mobility is made possible by a wheelchair. The proposed system is an interesting alternative to classical interfaces such as joysticks and pneumatic switches. The video sequence comprising 10 frames is processed using different methods leading to the construction of what is referred to in this thesis as an “intention curve”. A decision rule is proposed to subsequently classify each intention curve. For recognition based on head motions, a symmetry-based approach is proposed to estimate the direction intent indicated by a rotation and a Principal Component Analysis (PCA) is used to classify speed variation intents of the wheelchair indicated by a vertical motion. For recognition of the desired direction based on the rotation of the hand, an approach utilizing both a vertical symmetry-based approach and a machine learning algorithm (a neural network, a support vector machine or k-means clustering) results in a set of two intention curves subsequently used to detect the direction intent. Another approach based on the template matching of the finger region is also proposed. For recognition of the desired speed variation based on the vertical motion of the hand, two approaches are proposed. The first is also based on the template matching of the finger region, and the second is based on a mask in the shape of an ellipse used to estimate the vertical position of the hand. The results obtained display good performance in terms of classification both for single pose in each frame and for intention curves. The proposed visual intention recognition approach yields in the majority of cases a better recognition rate than most of the methods proposed in the literature. Moreover, this study shows that the head and the hand in rotation and in vertical motion are viable intent indicators
APA, Harvard, Vancouver, ISO, and other styles
25

Sun, Shengnan. "Modélisation et caractérisation mécanique d'un composite bio-sourcé par mesures de champs cinématiques sans contact." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2014. http://tel.archives-ouvertes.fr/tel-01020039.

Full text
Abstract:
Ce travail de thèse a été réalisé dans le cadre du projet de l'ANR DEMETHER lancé en 2011. L'objectif du projet était d'élaborer un matériau composite d'origine bio-sourcée pour l'isolation thermique des bâtiments existants. Ces biocomposites sont constitués de broyats de tiges de tournesol liés par une biomatrice à base de chitosane. Mon travail s'est concentré essentiellement sur la caractérisation et la modélisation des propriétés mécaniques des broyats et du biocomposite. La première phase du travail a permis de mettre en évidence l'influence de la zone de prélèvement des échantillons dans la tige ainsi que celle de l'humidité relative sur le module d'Young. Une approche statistique a également permis de prendre en considération le caractère diffus des tiges sur leurs propriétés mécaniques. Par la suite, un travail d'homogénéisation basé sur la morphologie et les caractéristiques des constituants de l'écorce a conduit à une estimation des propriétés élastiques globales de celle-ci. La deuxième phase du travail a permis de caractériser mécaniquement le biocomposite en compression par une méthode de mesures de champs sans contact développée au laboratoire. Le caractère hétérogène des champs de déformation a ainsi été directement relié aux constituants et au taux de chitosane.
APA, Harvard, Vancouver, ISO, and other styles
26

Marzin, Anahita. "Indicateurs biologiques de la qualité écologique des cours d'eau : variabilités et incertitudes associées." Phd thesis, AgroParisTech, 2013. http://pastel.archives-ouvertes.fr/pastel-00879788.

Full text
Abstract:
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement.
APA, Harvard, Vancouver, ISO, and other styles
27

Kleinman, Claudia L. "Statistical potentials for evolutionary studies." Thèse, 2010. http://hdl.handle.net/1866/5185.

Full text
Abstract:
Les séquences protéiques naturelles sont le résultat net de l’interaction entre les mécanismes de mutation, de sélection naturelle et de dérive stochastique au cours des temps évolutifs. Les modèles probabilistes d’évolution moléculaire qui tiennent compte de ces différents facteurs ont été substantiellement améliorés au cours des dernières années. En particulier, ont été proposés des modèles incorporant explicitement la structure des protéines et les interdépendances entre sites, ainsi que les outils statistiques pour évaluer la performance de ces modèles. Toutefois, en dépit des avancées significatives dans cette direction, seules des représentations très simplifiées de la structure protéique ont été utilisées jusqu’à présent. Dans ce contexte, le sujet général de cette thèse est la modélisation de la structure tridimensionnelle des protéines, en tenant compte des limitations pratiques imposées par l’utilisation de méthodes phylogénétiques très gourmandes en temps de calcul. Dans un premier temps, une méthode statistique générale est présentée, visant à optimiser les paramètres d’un potentiel statistique (qui est une pseudo-énergie mesurant la compatibilité séquence-structure). La forme fonctionnelle du potentiel est par la suite raffinée, en augmentant le niveau de détails dans la description structurale sans alourdir les coûts computationnels. Plusieurs éléments structuraux sont explorés : interactions entre pairs de résidus, accessibilité au solvant, conformation de la chaîne principale et flexibilité. Les potentiels sont ensuite inclus dans un modèle d’évolution et leur performance est évaluée en termes d’ajustement statistique à des données réelles, et contrastée avec des modèles d’évolution standards. Finalement, le nouveau modèle structurellement contraint ainsi obtenu est utilisé pour mieux comprendre les relations entre niveau d’expression des gènes et sélection et conservation de leur séquence protéique.
Protein sequences are the net result of the interplay of mutation, natural selection and stochastic variation. Probabilistic models of molecular evolution accounting for these processes have been substantially improved over the last years. In particular, models that explicitly incorporate protein structure and site interdependencies have recently been developed, as well as statistical tools for assessing their performance. Despite major advances in this direction, only simple representations of protein structure have been used so far. In this context, the main theme of this dissertation has been the modeling of three-dimensional protein structure for evolutionary studies, taking into account the limitations imposed by computationally demanding phylogenetic methods. First, a general statistical framework for optimizing the parameters of a statistical potential (an energy-like scoring system for sequence-structure compatibility) is presented. The functional form of the potential is then refined, increasing the detail of structural description without inflating computational costs. Always at the residue-level, several structural elements are investigated: pairwise distance interactions, solvent accessibility, backbone conformation and flexibility of the residues. The potentials are then included into an evolutionary model and their performance is assessed in terms of model fit, compared to standard evolutionary models. Finally, this new structurally constrained phylogenetic model is used to better understand the selective forces behind the differences in conservation found in genes of very different expression levels.
APA, Harvard, Vancouver, ISO, and other styles
28

Bueno, Virginie. "Inclure l’addiction à Internet dans le DSM-V : étude de cas de la biomédicalisation des cyberdépendances." Thèse, 2014. http://hdl.handle.net/1866/11538.

Full text
Abstract:
Le domaine de recherche scientifique sur les cyberdépendances présente de multiples définitions de cette pathologie. À partir du matériel empirique issu des débats relatifs à la proposition d'inclure l'addiction à Internet dans le Manuel Diagnostique et Statistique des Troubles mentaux (DSM-V), ce mémoire vise à comprendre les processus sociaux bornant le développement de cette pathologie au regard de la théorie de la biomédicalisation. À cette fin, un premier travail sociohistorique retrace les voies de la biologisation progressive des pratiques sociales de communication en ligne amorcées dès 1980. Un second travail d'analyse de discours systématise ensuite le processus normatif se dégageant des controverses scientifiques liées à son inclusion dans le DSM-V. La recherche menée suggère une interprétation théorique de cet objet située à l'intersection de tendances sociales propres à la société d'information. Le projet d'inclusion révèle la volonté d'une régulation sociale effectuée à partir de la transformation technoscientifique du vivant selon des processus santéistes et néolibéraux. Il donne ainsi à penser les discours scientifiques sur l'addiction à Internet comme avant tout politiques et économiques.
The proposal of "Internet Addiction" in the fifth edition of the DSM : a case study of biomedicalisation : The representation of Internet excessive practices as an addiction is a highly criticized fact in the scientific field. The proposed inclusion of the mental disorder "Internet Addiction" in the fifth version of the Diagnostic and Statistical Manuel, has ended in March 2013 in the inclusion of the "Internet Gaming Disorder" in the Appendix section caracterised by the need to further research. The aim of this master thesis is to understand the processes which get through the debate over this inclusion. Therefore, from a socio-historical perspective, the analysis first exposed the biomedicalized process that create the pathology. Then, empirically, through discourse analysis, that process is systematized in order to understand the representation of the "internet addict" that emerge from these scientific discourse. Finally, we suggest that this pathology reflect a specific way of governing in the information society era throught the technoscientific transformation of life, which is a political debate.
APA, Harvard, Vancouver, ISO, and other styles
29

Rousseau, Olivier. "Accélération de l'exploration de l'espace chimique du cytochrome P450 BM3 par des méthodes de criblage à haut débit et bio-informatiques." Thèse, 2018. http://hdl.handle.net/1866/21949.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography