Dissertations / Theses on the topic 'Algorithmes de prédiction'

To see the other types of publications on this topic, follow the link: Algorithmes de prédiction.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithmes de prédiction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Vekemans, Denis. "Algorithmes pour méthodes de prédiction." Lille 1, 1995. http://www.theses.fr/1995LIL10176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Supposant connaître quelques termes d'une suite, nous définissons une méthode de prédiction comme étant un procédé capable de fournir une approximation des termes suivants. Nous utilisons des méthodes d'extrapolation, qui servent généralement à accélérer la convergence des suites, pour construire des méthodes de prédiction. Souvent, les méthodes de prédiction nécessitent la résolution d'un système linéaire (ou non linéaire). Mais, grâce aux algorithmes relatifs aux méthodes d'extrapolation, dans ce travail, nous les évitons. De plus, nous pouvons donner des résultats de consistance pour ces méthodes.
2

Engelen, Stéfan. "Algorithmes pour la prédiction de structures secondaires d'ARN." Evry-Val d'Essonne, 2006. http://www.theses.fr/2006EVRY0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance de la structure secondaire des ARN est importante pour comprendre les relations entre structure et fonction des ARN. Elle est composée d'un ensemble d'hélices constituées de paires de bases complémentaires. Les algorithmes existants ont des complexités d'au moins O(n3). Cette thèse présente un algorithme, appelé P-DCfold, basé sur l'approche comparative pour la prédiction de structures secondaires des ARN avec une complexité en O(n2). Les hélices y sont recherchées récursivement en utilisant l'approche "diviser pour régner". La sélection des hélices est basée sur des critères thermodynamiques et de covariation. Le problème principal de l'approche comparative est la mauvaise qualité des alignements utilisés. P-DCfold utilise donc des modèles d'évolution sous contraintes de structure pour sélectionner les séquences correctement alignées. P-DCfold a prédit la structure secondaire de quelques ARN avec une sensibilité de 0,85 et une sélectivité de 0,95
The knowledge of RNA secondary structure is important to understand the relation between structure and function of the RNA. It is made up of a set of helices resulting from the folding of succession of a complementary base pairs. Complexities of existing algorithms is at least of O(n3). This thesis presents an algorithm, called P-DCFold, based on the comparative approach, for the prediction of RNA secondary structures with a complexity of O(n2). In this algorithm, helices are searched recursively using the "divide and conquer" approach. The selection of helices is based on thermodynamic and covariation criteria. The main problem of the comparative approach is the low quality of used alignment. So, P-DCfold use evolutionary models under structure constraints to select correctly aligned sequences. P-DCFold predicts the secondary structure of several RNA with a sensitivity of 0,85 and a sensibility of 0,95
3

Becquey, Louis. "Algorithmes multi-critères pour la prédiction de structures d'ARN." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes informatiques de prédiction des structures d'ARN reposent sur deux étapes algorithmiques : proposer des structures (l'échantillonnage), et les trier par pertinence (l'évaluation). Une grande diversité de méthodes d'évaluation existe. Certaines reposent sur des modèles physiques, d'autres sur la similarité à des données déjà observées. Cette thèse propose des méthodes de prédiction de structure combinant deux ou plusieurs critères de tri des solutions, divers d'un point de vue de l'échelle de modélisation (structure secondaire, tertiaire), et du type (theory-based, data-based, compatibilité avec des données expérimentales de sondage chimique). Les méthodes proposées identifient le front de Pareto du problème d'optimisation multiobjectif formé par ces critères. Ceci permet d'identifier des solutions (structures) bien notées selon tous les modèles, et également d'étudier la corrélation entre critères. Les approches présentées exploitent les dernières avancées, comme l'identification de modules ou de réseaux d'interactions récurrents, ainsi que les algorithmes d'apprentissage profond. Deux architectures de réseaux de neurones (un RNN et un CNN) sont adaptées des protéines à l'ARN. Un jeu de données d'ARN est proposé pour entrainer ces réseaux : RNANet. Deux outils logiciels sont proposés : BiORSEO, qui prédit la structure secondaire des ARN sur la base de deux critères (l'un énergétique, l'autre relatif à la présence de modules connus). MOARNA, qui propose des structures 3D gros grains sur la base de 4 critères : l'énergie de la structure secondaire, l'énergie en 3D, la compatibilité avec des données expérimentales de sondage chimique, ou la forme d'une famille connue d'ARN si une famille est identifiée
Computational RNA structure prediction methods rely on two major algorithmic steps : a sampling step, to propose new structure solutions, and a scoring step to sort the solutions by relevance. A wide diversity of scoring methods exists. Some rely on physical models, some on the similarity to already observed data (so-called data based methods, or knowledge based methods). This thesis proposes structure prediction methods combining two or more scoring criterions, diverse regarding the modelling scale (secondary structure, tertiary structure), their type (theory-based, knowledge-based, compatibility with experimental chemical probing results). The methods describe the Pareto front of the multi-objective optimization problem formed by these criteria. This allows to identify solutions (structures) well scored on each criterion, and to study the correlation between criterions. The presented approaches exploit the latest progresses in the field, like the identification of modules or recurrent interaction networks, and the use of deep learning algorithms. Two neural network architectures (a RNN and a CNN) are adapted from proteins to RNA. A dataset is created to train these networks: RNANet. Two software tools are proposed: the first is called BiORSEO, which predicts the secondary structure based on two criterions (one relative to the structure’s energy, the other relative to the presence of known modules). The second is MOARNA, which predicts coarse-grained 3D structures based on four criterions: energy in 2D and 3D, compatibility with experimental probing results, and with the shape of a known RNA family if one has been identified
4

Saffarian, Azadeh. "Algorithmes de prédiction et de recherche de multi-structures d'ARN." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00832700.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ARN (acide ribonucléique) est une molécule ubiquitaire qui joue plusieurs rôles fondamentaux au sein de la cellule: synthèse des protéines avec les ARN messagers, activité catalytique ou implicationdans la régulation, les ARN non-codants. Les nouvelles technologies de séquençage à haut-débit permettent de produire des milliards de séquences à moindre coût, posant de manière cruciale la question de l'analyse de ces données. L'objectif de cette thèse est de définir de nouvelles méthodes computationnelles pour aider à l'analyse de ces séquences dans le cas des ARN non-codants. Dans cette perspective, la "structure secondaire" d'un ARN, formée par l'ensemble des appariements entrebases, délivre des informations utiles pour étudier la fonction de l'ARN. Notre travail se concentre plus particulièrement sur l'ensemble des structures potentielles que peut adopter une séquence d'ARN donnée, ensemble que nous appelons "multi-structure". Nous apportons deux contributions: un algorithme pour générer systématiquement toutes les structures localement optimales composantune multi-structure, et un algorithme basé sur la recherche d'unemulti-structure pour identifier un ARN non-codant dans une séquence génomique. Ces résultats ont été mis en oeuvre dans deux logiciels, Alterna et Regliss, appliqués avec succès à des ensembles de test.
5

Bedrat, Amina. "G4-Hunter : un nouvel algorithme pour la prédiction des G-quadruplexes." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0197/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des séquences compatibles avec la formation de G4 sont présentes au niveau de certaines régions clés du génome telles que les extrémités des chromosomes, mais également les régions de commutation de classe des immunoglobulines, les promoteurs de certains gènes dont des oncogènes et des séquences transcrites. Plus de 370 000 cibles potentielles ont été prédites lors des analyses bioinformatiques du génome humain. Cependant, ces prédictions ne sont pas exhaustives étant limitées par la formulation des algorithmes de prédiction utilisés. En effet, les séquences recherchées suivent la formule consensus suivante G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+. Ainsi, en apportant plus de souplesse dans la description du quadruplex nous pourrons identifier et localiser plus de cibles potentielles. C’est pourquoi, nous proposons un nouvel algorithme G4-Hunter qui permettra l’identification la plus exhaustive possible de séquences cibles en prenant en compte la totalité de la région et non plus uniquement la cible potentielle. Par ailleurs, une étude expérimentale à grande échelle (sur une centaine de séquences cibles) a été menée afin de valider et tester la robustesse de G4-Hunter. A l’aide de ce nouvel outil, nous avons pu identifier de nouvelles séquences cibles non identifiées par les approches déjà existantes au sein des génomes humain, HIV et Dictyostelium discoideum
Biologically relevant G4 DNA structures are formed throughout the genome including immunoglobulin switch regions, promoter sequences and telomeric repeats. They can arise when single-stranded G-rich DNA or RNA sequences are exposed during replication, transcription or recombination. Computational analysis using predictive algorithms suggests that the human genome contains approximately 370 000 potential G4-forming sequences. These predictions are generally limited to the standard G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+ description. However, many stable G4s defy this description and escape this consensus; this is the reason why broadening this description should allow the prediction of more G4 loci. We propose an objective score function, G4- hunter, which predicts G4 folding propensity from a linear nucleic acid sequence. The new method focus on guanines clusters and GC asymmetry, taking into account the whole genomic region rather than individual quadruplexes sequences. In parallel with this computational technique, a large scale in vitro experimental work has also been developed to validate the performance of our algorithm in silico on one hundred of different sequences. G4- hunter exhibits unprecedented accuracy and sensitivity and leads us to reevaluate significantly the number of G4-prone sequences in the human genome. G4-hunter also allowed us to predict potential G4 sequences in HIV and Dictyostelium discoideum, which could not be identified by previous computational methods
6

Bourquard, Thomas. "Exploitation des algorithmes génétiques pour la prédiction de structures protéine-protéine." Paris 11, 2009. http://www.theses.fr/2009PA112302.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fonctions de la majorité des protéines sont surbordonnées à l’interaction avec un ou plusieurs partenaires : acide nucléiques, autres protéines,… La plupart de ces interactions sont transitoires, difficiles à détecter expérimentalement et leur structures sont souvent impossible à obtenir. C’est pourquoi la prédiction in silico de l’existence des ces interactions et la structure du complexe résultant ont été l’objet de nombreuses études depuis plus d’une décennie maintenant. Pour autant les protéines sont des objets complexes et les méthodes informatiques classiques sont trop « gourmandes » en temps pour l’exploration à grande échelle de l’interactome des différents organismes. Dans ce contexte de développement d’une méthode de docking protéine-protéine haut débit nous présenterons ici l’implémentation d’une nouvelle méthode d’amarrage, celle-ci est basée sur : L’utilisation de deux types de formalismes : les tessellations de Voronoï et Laguerre permettant la manipulation de modèles géométriques simplifiés permettant une bonne modélisation des complexes et des temps de calcul plus raisonnable qu’en représentation atomique. L’utilisation et l’optimisation d’algorithmes d’apprentissage (algorithmes génétiques) permettant d’isoler les conformations les plus pertinentes entre deux partenaires protéiques. Une méthode d’évaluation basée le clustering de méta-attributs calculés au niveau de l’interface permettant de trier au mieux ce sous-ensemble de conformations candidates
Most proteins fulfill their functions through the interaction with one or many partners as nucleic acids, other proteins…. Because most of these interactions are transitory, they are difficult to detect experimentally and obtaining the structure of the complex is generally not possible. Consequently, “in silico prediction” of the existence of these interactions and of the structure of the resulting complex has received a lot of attention in the last decade. However, proteins are very complex objects, and classical computing approaches have lead to computer-time consuming methods, whose accuracy is not sufficient for large scale exploration of the so-called “interactome” of different organisms. In this context development of high-throughput prediction methods for protein-protein docking is needed. We present here the implementation of a new method based on : Two types of formalisms : the Vornonoi and Laguerre tessellations, two simplified geometric models for coarse-grained modeling of complexes. This leads to computation time more reasonable than in atomic representation, the use and optimization of learning algorithms (genetic algorithms) to isolate the most relevant conformation between two two protein parteners, an evaluation method based on clustering of meta-attributes calculated at the interface to sort the best subset of candidate conformations
7

Voland, Mathieu. "Algorithmes pour la prédiction in silico d'interactions par similarité entre macromolécules biologiques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un médicament, ou tout autre petite molécule biologique, agit sur l’organisme via des interactions chimiques qui se produisent avec d’autres macromolécules telles que les protéines qui régissent le fonctionnement des cellules. La détermination de l’ensemble des cibles, c’est à dire de l’ensemble des macromolécules susceptibles de lier une même molécule, est essentielle pour mieux comprendre les mécanismes moléculaires à l’origine des effets d’un médicament. Cette connaissance permettrait en effet de guider la conception d’un composé pour éviter au mieux les effets secondaires indésirables, ou au contraire découvrir de nouvelles applications à des molécules connues. Les avancées de la biologie structurale nous permettent maintenant d’avoir accès à un très grand nombre de structures tridimensionnelles de protéines impliquées dans ces interactions, ce qui motive l’utilisation d’outils in silico (informatique) pour complémenter ou guider les expériences in vitro ou in vivo plus longues et plus chères.La thèse s’inscrit dans le cadre d’une collaboration entre le laboratoire DAVID de l’Université de Versailles-Saint-Quentin, et l’entreprise Bionext SA qui propose une suite logicielle permettant de visualiser et d’étudier les interactions chimiques. Les travaux de recherches ont pour objectif de développer un algorithme permettant, à partir des données structurales des protéines, de déterminer des cibles potentielles pour un composé donné. L’approche choisie consiste à utiliser la connaissance d’une première interaction entre un composé et une protéine afin de rechercher par similarité d’autres protéines pour lesquelles on peut inférer la capacité à se lier avec le même composé. Il s’agit plus précisément de rechercher une similarité locale entre un motif donné, qui est la région permettant à la cible connue de lier le composé, et un ensemble de protéines candidates.Un algorithme a été développé, BioBind, qui utilise un modèle des surfaces des macromolécules issu de la théorie des formes alpha afin de modéliser la surface accessible ainsi qu’une topologie sur cette surface permettant la définition de régions en surface. Afin de traiter le problème de la recherche d’un motif en surface, une heuristique est utilisée consistant à définir des motifs réguliers qui sont une approximation de disques géodésiques et permettant un échantillonnage exhaustif à la surface des macromolécules. Ces régions circulaires sont alors étendues à l’ensemble du motif recherché afin de déterminer une mesure de similarité.Le problème de la prédiction de cibles est ramené à un problème de classification binaire, où il s’agit pour un ensemble de protéines données de déterminer lesquelles sont susceptibles d’interagir avec le composé considéré, par similarité avec la première cible connue. Cette formalisation permet d’étudier les performances de notre approche, ainsi que de la comparer avec d’autres approches sur différents jeux de données. Nous utilisons pour cela deux jeux de données issus de la littérature ainsi qu’un troisième développé spécifiquement pour cette problématique afin d’être plus représentatif des molécules pertinentes du point de vue pharmacologique, c’est-à-dire ayant des propriétés proches des médicaments. Notre approche se compare favorablement sur ces trois jeux de données par rapport à une autre approche de prédiction par similarité, et plus généralement notre analyse confirme que les approches par docking (amarrage) sont moins performantes que les approches par similarité pour le problème de la prédiction de cibles
The action of a drug, or another small biomolecule, is induced by chemical interactions with other macromolecules such as proteins regulating the cell functions. The determination of the set of targets, the macromolecules that could bind the same small molecule, is essential in order to understand molecular mechanisms responsible for the effects of a drug. Indeed, this knowledge could help the drug design process so as to avoid side effects or to find new applications for known drugs. The advances of structural biology provides us with three-dimensional representations of many proteins involved in these interactions, motivating the use of in silico tools to complement or guide further in vitro or in vivo experiments which are both more expansive and time consuming.This research is conducted as part of a collaboration between the DAVID laboratory of the Versailles-Saint-Quentin University, and Bionext SA which offers a software suite to visualize and analyze chemical interactions between biological molecules. The objective is to design an algorithm to predict these interactions for a given compound, using the structures of potential targets. More precisely, starting from a known interaction between a drug and a protein, a new interaction can be inferred with another sufficiently similar protein. This approach consists in the search of a given pattern, the known binding site, across a collection of macromolecules.An algorithm was implemented, BioBind, which rely on a topological representation of the surface of the macromolecules based on the alpha shapes theory. Our surface representation allows to define a concept of region of any shape on the surface. In order to tackle the search of a given pattern region, a heuristic has been developed, consisting in the definition of regular region which is an approximation of a geodesic disk. This circular shape allows for an exhaustive sampling and fast comparison, and any circular region can then be extended to the actual pattern to provide a similarity evaluation with the query binding site.The target prediction problem is formalized as a binary classification problem, where a set of macromolecules is being separated between those predicted to interact and the others, based on their local similarity with the known target. With this point of view, classic metrics can be used to assess performance, and compare our approach with others. Three datasets were used, two of which were extracted from the literature and the other one was designed specifically for our problem emphasizing the pharmacological relevance of the chosen molecules. Our algorithm proves to be more efficient than another state-of-the-art similarity based approach, and our analysis confirms that docking software are not relevant for our target prediction problem when a first target is known, according to our metric
8

Dieng, Ibnou. "Prédiction de l'interaction génotype x environnement par linéarisation et régression PLS-mixte." Montpellier 2, 2007. http://www.theses.fr/2007MON20019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sànchez, Velazquez Jesús Antonio. "Prédiction et évaluation de performance des algorithmes adaptatifs implantés sur machines parallèles." Paris, ENST, 1993. http://www.theses.fr/1993ENST0021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous analysons dans ce travail de these le processus d'implantation sur des machines mimd a passage de messages d'une classe importante d'algorithmes en traitement du signal: les algorithmes adaptatifs. Ce processus est long et couteux, raison pour laquelle on essaie de predire la performance des implantations avant de les programmer. Nous introduisons un modele du comportement temporel des implantations utilisant un faible nombre de parametres pour representer l'algorithme et l'architecture cible. Ensuite, nous definissons la machine ideale m#0 nous permettant d'atteindre une periode d'iteration minimale. Nous demontrons que cette periode d'iteration peut etre atteinte par une implantation reelle m#2 ayant un faible nombre de processeurs et prenant en compte les durees des communications. Nous avons developpe des algorithmes heuristiques permettant de trouver m#2 et de prendre en compte des restrictions materielles pour trouver des implantations performantes de plusieurs algorithmes adaptatifs classiques (lms, rls, ftf, felms, rlsl). Finalement, on presente un ensemble d'outils developpes pour aider au processus d'implantation sur des machines paralleles, nous permettent de predire les bornes de performance des implantations, de suggerer des configurations materielles et logicielles, et de simuler le fonctionnement temporel des implantations pour evaluer leur performance
10

Suter, Frédéric. "Parallélisme mixte et prédiction de performances sur réseaux hétérogènes de machines parallèles." Lyon, École normale supérieure (sciences), 2002. http://www.theses.fr/2002ENSL0233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
"Avec la généralisation de l'Internet, il est désormais possible pour les utilisateurs de calcul numérique d'accéder aux machines les plus puissantes disponibles de par le monde et ce depuis leur station de travail. A grande échelle, ce type d'accès distant est appelé "metacomputing". Les travaux effectués au cours de cette thèsze ont tout d'abord concerné la parallélisation du logiciel SCILAB, en suivant, entre autres, une aproche basée sur des serveurs de calcul. Au cours de ces dévéloppements, les lacunes des environnements de ce type ont été exhibées, notamment le problème de goulot d'étranglement posé par la présence d'un agent centralisé. Afin de pallier ce problème, et donc de proposer un environnement extensible, nous avons suivi une approche hiérarchique pour développer le logiciel DIET (Distributed Interactive Engineering Toolbox). Un des points cruciaux des environnements de ce type concerne la capacité à estimer le temps d'exécution d'une routine sur machine donnée et les coûts de transfert des données depuis un client ou un serveur vers le serveur choisi pour la résolutions. La bibliothèque FAST (Fast Agent's System Timer), que nous avons étendue afin de gérer les routines parallèles, permet d'acquérir ce type d'informations. D'un point de vue algorithmique, nous avons mené une étude à la fois théorique et expérimentale du parallélisme mixte, i. E. , l'exploitation simultanée des parallélismes de tâches et données. Après avoir appliqué ce paradigme aux algorithmes rapides de produit de matrices de Strassen et Winograd, nous avons proposé un algorithme d'ordonnancement en parallélisme mixte dans le cas où les données ne peuvent pas être dupliquées. Cet algorithme effectue simultanément le placement et l'ordonnancement des tâches d'un graphe en se basant sur les modèles de coûts fournis par notre extension de FAST et sur un ensemble de distributions possibles. "
11

Perriquet, Olivier. "Approche algorithmique pour la prédiction de la structure secondaire des ARN." Lille 1, 2003. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2003/50376-2003-211.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans cette thèse se placent dans le cadre des recherches informatiques liées à la génétique (bioinformatique) et concernent plus précisément la prédicition de la structure secondaire des ARN. Les Acides RiboNucléiques- ARN - sont des polymères qu'on peut considérer comme des longues chaînes de bases symbolisées par les lettres A, U, C, G. Ces chaînes se replient dans l'espace de manière spécifique à chaque séquence et adoptent une forme globulaire compacte. La modélisation de la structure peut être hierarchisée en niveaux de précision croissante: structure primaire (la séquence des bases), secondaire/tertiaire (le graphe des appariements entre bases), tridimensionnelle (la forme spatiale de la molécule). La prédiction de la structure tridimensionnelle étant hors de portée à l'heure actuelle pour des molécules de cette taille, les méthodes de prédiction se sont majoritairement concentrées sur la structure secondaire. Il existe principalement deux types d'approche selon qu'on considère une unique séquence ou un ensemble de séquences homologues. La première approche s'appuie sur le principe thermodynamique affirmant que la molécule doit être dans son état d'énergie libre minimal. La seconde tire parti, à l'aide d'un grand nombre de séquences, des mutations qu'elles ont subi au cours de l'évolution. Ces méthodes sont mal adaptées au contexte actuel où l'on découvre de nouvelles petites familles d'ARN structurés. Des méthodes hybrides procédant des deux approches ont donc vu le jour pour pouvoir s'appliquer à un petit nombre de séquences. CARNAC, la méthode que nous proposons, appartient à ce nouveau groupe d'algorithmes. Nous montrons où elle se place par rapport à toutes ces méthodes et nous donnons des résultats expérimentaux.
12

Bourquard, Thomas. "Exploitation des algorithmes génétiques pour la prédiction de structure de complexe protéine-protéine." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00782396.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fonctions de la majorité des protéines sont subordonnées à l'interaction avec un ou plusieurs partenaires : acides nucléiques, autres protéines... La plupart de ces interactions sont transitoires, difficiles à détecter expérimentalement et leurs structures sont souvent impossible à obtenir. C'est pourquoi la prédiction in silico de l'existence de ces interactions et la structure du complexe résultant ont été l'objet de nombreuses études depuis plus d'une décennie maintenant. Pour autant les protéines sont des objets complexes et les méthodes informatiques classiques sont trop "gourmandes" en temps pour l'exploration à grande échelle de l'interactome des différents organismes. Dans ce contexte de développement d'une méthode de docking protéine-protéine haut débit nous présenterons ici l'implémentation d'une nouvelle méthode d'amarrage, celle-ci est basée sur : l'utilisation de deux types de formalismes : Les tessellations de Voronoï et Laguerre permettant la manipulation de modèles géométriques simplifiés permettant une bonne modélisation des complexes et des temps de calcul plus raisonnable qu'en représentation atomique. L'utilisation et l'optimisation d'algorithmes d'apprentissage (algorithmes génétiques) permettant d'isoler les conformations les plus pertinentes entre deux partenaires protéiques. Une méthode d'évaluation basée sur le clustering de méta-attributs calculés au niveau de l'interface permettant de trier au mieux ce sous-ensemble de conformations candidates.
13

Mandon, Hugues. "Algorithmes pour la prédiction de stratégies de reprogrammation cellulaire dans les réseaux Booléens." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse explique ce qu'est la reprogrammation cellulaire dans le cadre des réseaux Booléens, et quelles sont différentes méthodes pour obtenir des solutions à ce problème.Premièrement, on y établit formellement les définitions de perturbations, séquences de perturbations, stratégies de reprogrammation,inévitabilité et existentialité desdites stratégies, et ce qu'est la reprogrammabilité, dans le cadre des réseaux Booléens.De plus, il y est listé les techniques actuelles pour trouver les cibles de reprogrammation cellulaire, dans le cadre des réseaux Booléens et d'autres modèles.On y décrit ensuite comment une analyse statique du réseau permet de comprendre mieux leur dynamique, et le rôle important des composantes fortement connexes du graphe d'interaction.À partir de ce réseau et de la donnée externe de la liste des attracteurs, un algorithme permet de trouver certaines variables à perturber, parfois nécessairement dans un ordre donné.Ensuite, on y explique comment construire un nouveau modèle pour pouvoir faire des perturbations de manière purement séquentielle, et ainsi profiter de la dynamique du réseau Booléen entre les perturbations.Etant donnée la complexitée élevée de cette approche, on y explique également une approche intermédiaire, ou seulement les attracteurs du réseaux sont perturbables, permettant une complexité plus faible.Enfin, une étude de cas est faite, où divers réseaux Booléens biologiques sont utilisés, avec les différentes approches expliquées au long de la thèse.On y constate que les stratégies de reprogrammation séquentielles permettent de trouver des séquences de perturbations différentes, avec des perturbations plus petites que si l'on ne perturbe qu'une seule fois
This thesis explains what is cell reprogramming in Boolean networks, and what are several methods to solve this problem.First, formal definitions of perturbations, perturbation sequences, reprogramming strategies, inevitability and existentiality of the strategies, and of reprogrammability are given, in the scope of Boolean networks.Moreover, a list of actual methods to find cell reprogramming targets is given, both in the scope of Boolean networks and outside of it.Then, it is described how a static analysis of the networks allows for better understanding of their dynamics, and how important strongly connected components of the interaction graph are.From this network with the added information of the attractor list, an algorithm finds a list of variables to perturb, sometimes with the necessity of a precise order.Then, how to construct a new model is explained, allowing to make perturbations sequentially, thus using the Boolean network dynamics between the perturbations.Given the high complexity of this approach, we also explain an in-between approach, where only the attractors of the network can be perturbed, thus allowing for a smaller complexity.Lastly, a case study is done, where biological Boolean networks from literature are used, and on which the different algorithms from the thesis are applied.We show that sequential reprogramming strategies allow for new perturbation sequences, with smaller perturbations than one-step reprogramming strategies
14

Lafaquière, Vincent. "Compréhension et prédiction de l'énantiosélectivité des lipases." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0002/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude a porté sur l’analyse de l’énantiosélectivité de la lipase de Burkholderia cepacia (BCL) pour les acides 2-substitués, synthons chiraux d’intérêt pharmaceutique, avec pour objectif d’examiner le rôle de l’accès au site actif enfoui de BCL sur l’énantiosélectivité et de développer une procédure d’ingénierie permettant de créer des mutants d’énantiosélectivité améliorée. Pour traiter le problème, une nouvelle approche de calcul, basée sur des algorithmes de planification de mouvements issus de la robotique a été développée. Elle permet l’exploration conformationnelle des espaces multi-dimensionnels contraints et a été appliquée au calcul des trajectoires de plusieurs racémiques dans le site actif de BCL et à l’identification de résidus pouvant potentiellement gêner le déplacement du substrat le long du site actif. Les résultats obtenus in silico ont révélé une corrélation qualitative avec les valeurs d’énantiosélectivité et ont permis de proposer des cibles de mutagénèse. Sur cette base, l’ingénierie du site actif de BCL a été entreprise pour moduler sélectivement l’accès des énantiomères R et S à la triade catalytique. Un système d’expression hétérologue de BCL chez E. coli compatible avec une expression en microplaque, a été développé. Une librairie de 57 (3x19) mono-mutants sur les positions : Leu17, Val266 et Leu287 a été construite par iPCR puis criblée en utilisant une procédure à moyen débit pour identifier les variants actifs pour l’hydrolyse du pNPB. L’énantiosélectivité de ces mutants a ensuite été évaluée pour l’hydrolyse du racémique (R,S)-2 bromophényl acétate de 2-chloro-éthyle, par utilisation d’une nouvelle procédure de criblage en deep-wells. Ce crible a permis de mettre en évidence plusieurs mutants dont les plus prometteurs ont été caractérisés. Ainsi les mutants Leu17Ser et Leu17Met présentent une augmentation de l’énantiosélectivité d’un facteur 10 accompagnée d’une augmentation de leur activité d’un facteur 4 à 5. Le mutant Val266Gly présente, quant à lui, une inversion de l’énantiosélectivité pour le substrat d’intérêt. L’étude des trajectoires par les techniques de planification combinée à une représentation sous la forme de carte de voxels a été réalisée en parallèle. Pour les mutants sélectionnés, une bonne corrélation a été observée entre les résultats obtenus in silico et expérimentalement. De plus, cela a permis de proposer de nouvelles combinaisons de mutations ayant conduit à l’identification de deux double-mutants Leu17Met/Val266Met et Leu17Ser/Leu287Ile d’énantiosélectivité supérieure à 150 pour le substrat modèle, révélant ainsi l’intérêt de l’approche semi-rationnelle proposée
This work has been focused on the understanding of the Burkholderia cepacia lipase (BCL) enantioselectivity towards 2-substituted acids which are chiral building blocks of pharmaceutical interest. The main objective of this work was the investigation of the potential role of substrate accessibility toward the buried active site of BCL on enantioselectivity and the development of an engineering procedure for the design of enantioselective mutants. To study further this hypothesis, a novel computational approach, based on motion-planning algorithms, originally used in robotics, was developed. It allows the conformational exploration of constrained high-dimensional spaces and was applied to the computation of trajectories for a set of racemates within the catalytic site. This methodology also enables the identification of residues potentially hindering substrates displacement along the active site. Results obtained in silico were correlated qualitatively with experimental values of enantioselectivity. On the basis of these results, engineering of the narrow active site of BCL has been undertaken to modulate selectively the access of R and S enantiomers to the catalytic triade. An heterologous expression system of BCL in E. coli compatible with production at microplate scale was developed. A library of 57 (3x19) variants targeted at positions Leu17, Val266 and Leu287 was built by iPCR and subsequently screened using a medium-throughput procedure to identify active variants against pNPB hydrolysis. Next, the enantioselectivity of these mutants was evaluated towards a given racemate, the (R,S)-2-chloro ethyl 2-bromophenylacetate, using a novel screening procedure developed in deep wells. Such screening enabled the identification of several variants amongst which the most promising were characterized. Mutants Leu17Ser and Leu17Met showed a remarkable 10-fold increase of their enantioselectivity and a 4- and 5-fold improvement of their specific activity. Compared to the wild-type enzyme, mutant Val266Gly displayed a reversed enantioselectivity for the substrate of interest. Investigation of the trajectories using motion-planning techniques combined to a voxel map representation was carried out. For selected variants, a fair correlation was observed between in silico and experimental results. Moreover, this enabled us to suggest novel combinations of mutations that led to the identification of two double-mutants Leu17Met/Val266Met and Leu17Ser/Leu287Ile showing an enantioselectivity value higher than 150 for the racemic substrate, revealing thus the effiency of the semi-rational strategy
15

Auger, Nicolas. "Analyse réaliste d'algorithmes standards." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1110/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
À l'origine de cette thèse, nous nous sommes intéressés à l'algorithme de tri TimSort qui est apparu en 2002, alors que la littérature sur le problème du tri était déjà bien dense. Bien qu'il soit utilisé dans de nombreux langages de programmation, les performances de cet algorithme n'avaient jamais été formellement analysées avant nos travaux. L'étude fine de TimSort nous a conduits à enrichir nos modèles théoriques, en y incorporant des caractéristiques modernes de l'architecture des ordinateurs. Nous avons, en particulier, étudié le mécanisme de prédiction de branchement. Grâce à cette analyse théorique, nous avons pu proposer des modifications de certains algorithmes élémentaires (comme l'exponentiation rapide ou la dichotomie) qui utilisent ce principe à leur avantage, améliorant significativement leurs performances lorsqu'ils sont exécutés sur des machines récentes. Enfin, même s'il est courant dans le cadre de l'analyse en moyenne de considérer que les entrées sont uniformément distribuées, cela ne semble pas toujours refléter les distributions auxquelles nous sommes confrontés dans la réalité. Ainsi, une des raisons du choix d'implanter TimSort dans des bibliothèques standard de Java et Python est probablement sa capacité à s'adapter à des entrées partiellement triées. Nous proposons, pour conclure cette thèse, un modèle mathématique de distribution non-uniforme sur les permutations qui favorise l'apparition d'entrées partiellement triées, et nous en donnons une analyse probabiliste détaillée
At first, we were interested in TimSort, a sorting algorithm which was designed in 2002, at a time where it was hard to imagine new results on sorting. Although it is used in many programming languages, the efficiency of this algorithm has not been studied formally before our work. The fine-grain study of TimSort leads us to take into account, in our theoretical models, some modern features of computer architecture. In particular, we propose a study of the mechanisms of branch prediction. This theoretical analysis allows us to design variants of some elementary algorithms (like binary search or exponentiation by squaring) that rely on this feature to achieve better performance on recent computers. Even if uniform distributions are usually considered for the average case analysis of algorithms, it may not be the best framework for studying sorting algorithms. The choice of using TimSort in many programming languages as Java and Python is probably driven by its efficiency on almost-sorted input. To conclude this dissertation, we propose a mathematical model of non-uniform distribution on permutations, for which permutations that are almost sorted are more likely, and provide a detailed probabilistic analysis
16

Caignot, Alain. "Prédiction par essais virtuels de l'amortissement dans les structures spatiales." Phd thesis, Cachan, Ecole normale supérieure, 2009. http://www.theses.fr/2009DENS0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte de réduction importante des coûts dans le domaine des lanceurs spatiaux, il devient primordial de contrôler l'ensemble des facteurs dimensionnants dès la conception. La diminution de la masse est compensée par une augmentation de la raideur et il en résulte une diminution de l'amortissement, qui est le paramètre qui conditionne les niveaux de la réponse dynamique. A l'heure actuelle, l'amortissement est pris en compte de manière globale et le plus souvent identifié sur la structure finale. L'objectif de ce travail est de proposer une démarche de prédiction de l'amortissement dans les lanceurs spatiaux afin de prendre celui-ci en compte dès la phase de conception. Cette démarche passe par la mise en place d'une base de données des coefficients d'amortissement en fonction du type de sollicitation, du niveau de chargement, de la géométrie. . . L'amortissement étant bien connu pour les matériaux qui composent le lanceur, l'enjeu est la détermination de l'amortissement dans les liaisons, où les dissipations peuvent être très importantes. Les démarches expérimentales étant coûteuses et complexes à mettre en place, le travail s'est tourné vers une approche numérique, basée sur un calcul éléments finis des liaisons. Ce type de simulations est actuellement hors de portée des codes de calculs industriels standards et a nécessité le développement d'un code de calcul parallèle spécifique, basé sur la méthode LATIN. La robustesse de l'outil numérique a été étudiée et les résultats ont été validés à partir de valeurs obtenues expérimentalement lors d'une étude précédente. Enfin, le calcul de différentes liaisons constitutives du lanceur a été abordé ainsi que la méthodologie pour intégrer ces résultats dans le processus de dimensionnement d'Ariane
In the context of a significant cost reduction in the design of space launchers, it is on crucial to control all the factors involved in the dimensionning process. The decrease in mass is compensated by an increase in stiffness and results in a decrease of damping, which is the parameter that determines the level of the dynamic response. At the present time, the damping is taken into account in a global model and most often identified on the final structure. The objective of this work is to improve the launcher design process by introducing the capability to predict damping a priori. In order to do that, the idea is to develop a database containing the dissipation due to the materials and the dissipation relative to the joints in the launcher for each type and each level of solicitation. . . Damping in materials is relatively well-known in the case of the composites which make up the launcher. Therefore, the challenge is the prediction of the damping in the joints where the dissipations can be very important. The experimental approaches are expensive and complex to implement, that is why this work is based on a finite element computation of the joints. This type of simulations is beyond the reach of standard industrial computing codes ans has needed the development of specific parallel computationnal code based on the LATIN method. The robustness of the numerical tool has been studied and its results validated from experimental values obtained in a previous study. Finally, the computation of different joints of the launcher has been done as well as the methodology for integrating these results in the design process of Ariane
17

Caignot, Alain. "Prédiction par essais virtuels de l'amortissement dans les structures spatiales." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00422291.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte de réduction importante des coûts dans le domaine des lanceurs spatiaux, il devient primordial de contrôler l'ensemble des facteurs dimensionnants dès la conception. La diminution de la masse est compensée par une augmentation de la raideur et il en résulte une diminution de l'amortissement, qui est le paramètre qui conditionne les niveaux de la réponse dynamique. A l'heure actuelle, l'amortissement est pris en compte de manière globale et le plus souvent identifié sur la structure finale. L'objectif de ce travail est de proposer une démarche de prédiction de l'amortissement dans les lanceurs spatiaux afin de prendre celui-ci en compte dès la phase de conception. Cette démarche passe par la mise en place d'une base de données des coefficients d'amortissement en fonction du type de sollicitation, du niveau de chargement, de la géométrie... L'amortissement étant bien connu pour les matériaux qui composent le lanceur, l'enjeu est la détermination de l'amortissement dans les liaisons, où les dissipations peuvent être très importantes. Les démarches expérimentales étant coûteuses et complexes à mettre en place, le travail s'est tourné vers une approche numérique, basée sur un calcul éléments finis des liaisons. Ce type de simulations est actuellement hors de portée des codes de calculs industriels standards et a nécessité le développement d'un code de calcul parallèle spécifique, basé sur la méthode LATIN. La robustesse de l'outil numérique a été étudiée et les résultats ont été validés à partir de valeurs obtenues expérimentalement lors d'une étude précédente. Enfin, le calcul de différentes liaisons constitutives du lanceur a été abordé ainsi que la méthodologie pour intégrer ces résultats dans le processus de dimensionnement d'Ariane.
18

Kootbally, Zeïd. "Prédiction des positions de véhicules autonomes dans un environnement routier dynamique." Dijon, 2008. http://www.theses.fr/2008DIJOS064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rôle de la recherche dans le domaine des voitures autonomes est de pouvoir construire des systèmes physiques pouvant se déplacer dans un but précis, sans quelconque intervention extérieure humaine, que ce soit dans des environnements statiques et dynamiques, connus, partiellement connus et inconnus. Le domaine des véhicules autonomes continue à attirer chercheurs et autres techniciens. Le financement pour la recherche dans ce domaine a continué à prendre de l’ampleur durant les dernières années, poussant ainsi les travaux à migrer de la théorie vers la pratique. Avant de pouvoir utiliser un véhicule autonome dans le monde réel, il est important d’arriver à modéliser le véhicule dans une simulation d’une part, et aussi de pouvoir évaluer les performances du véhicule dans le monde virtuel d’autre part. Nous présentons le Framework PRIDE (Prediction In Dynamic Environments), une approche hiérarchique à multi résolutions pour la prédiction des objets mobiles. PRIDE regroupe plusieurs algorithmes de prédictions en une seule et même structure. PRIDE est basé sur 4D/RCS (Real-time Control System) et fournit des informations à des planificateurs à différents niveaux de granularité appropriés au temps de prédiction. Les plus bas niveaux du Framework utilisent des prédictions à courts termes basées sur le filtre étendu de Kalman associé à une mesure de confiance. Les plus hauts niveaux font appel à une approche de prédiction probabiliste basée sur la reconnaissance de situations associée à un model de coûts permettant de calculer des prédictions utilisant des informations et des contraintes associées à l’environnement. PRIDE a connaissance de la structure du réseau routier via une base de données regroupant des informations sur l’environnement. Le résultat de chaque prédiction est passé au planificateur pour le contrôle de la trajectoire du véhicule. Dans divers scénarios, nous avons utilisé PRIDE avec l’outil de visualisation AutoSim dans un premier temps, et dans un deuxième temps, avec le Framework MOAST/USARSim, permettant ainsi à PRIDE de pouvoir considérer la physique, la cinématique ainsi que la dynamique des véhicules
The goal of autonomous vehicles research is to build physical systems that can move purposefully and without human intervention in static and dynamic environments, and also in known, partially known and unknown environments. The field of autonomous vehicles is continuing to gain traction both with researchers and practitioners. Funding for research in this area has continued to grow over the past few years, and recent high profile funding opportunities have started to push theoretical research efforts into practical use. Before releasing any autonomous vehicle in the real world, it is important to model the components within a simulated environment and assess the performance of the vehicles in the virtual world. We present the PRIDE framework (Prediction In Dynamic Environments), a hierarchical multiresolutional approach for moving object prediction that incorporates multiple prediction algorithms into a single, unifying framework. PRIDE is based upon the 4D/RCS (Real-time Control System) and provides information to planners at the level of granularity that is appropriate for their planning horizon. The lower levels of the framework utilize estimation theoretic short-term predictions based upon an extended Kalman filter with an associated confidence measure. The upper levels utilize a probabilistic prédiction approach based upon situation recognition with an underlying cost model that provides predictions that incorporate environmental information and constraints. PRIDE is run in the systems' world model independently of the planner and the control system and has knowledge of the road structures via a road network database. The results of the prediction are made available to a planner to allow it to make accurate plans in dynamic environments. We have applied this approach to the visualization tool AutoSim and later on to the MOAST/USARSim framework which incorporates the physics, kinematics and dynamics of vehicles involved in traffic scenarios
19

Hubans, Christine. "Méthode ab initio de prédiction d'opérons chez les procaryotes et validations biologiques chez les Bordetelles." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_246.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Aujourd'hui comprendre les mécanismes moléculaires qui régissent la vie est un challenge de la biologie. C'est avec l'objectif de comprendre les voies métaboliques et leur régulation que de nombreuses méthodes «in silico» ont été développées. La conservation de l'organisation des gènes sur les génomes procaryotes reflète des interactions fonctionnelles, c'est pourquoi annoter ces structures est primordial. Au cours de nos travaux, nous avons développé un algorithme de prédiction d'opérons travaillant uniquement sur base d'une séquence génomique. Notre méthode combine la prédiction de plusieurs éléments génomiques ainsi qu'une analyse de la fréquence de distribution des nucléotides et dinucléotides afin de discriminer les séquences intergéniques transcrites des non transcrites. La robustesse de notre algorithme a été éprouvée sur deux jeux de données validés d'E coli et de B. Subtilis et atteint une sensibilité de 88% et une spécificité de 89%. Afin d'annoter de nouvelles structures opéroniques chez E coli, nous avons biologiquement validé certains opérons prédits. Quatre nouveaux opérons ont été expérimentalement confinnés. De plus, nous avons vérifié biologiquement deux opérons, prédits par notre logiciel comme unités polycistroniques mais précédemment décrits dans la littérature comme juxtapositions d'unités monogéniques. Dans une dernIère partie, nous avons appliqué notre méthode au niveau de trois génomes de la famille des Bordetelles. Par une comparaison des annotations opéroniques, nous cherchons à mettre en évidence des différences d'organisation génomique pouvant entraîner des changements dans les spécificités d'hôte et pathogénicités de trois espèces très proches des Bordetelles, à savoir pertussis, parapertussis et bronchiseptica.
20

Hue, Martial. "Méthodes à noyau pour l'annotation automatique et la prédiction d'interaction de structures de protéine." Paris 7, 2011. http://www.theses.fr/2011PA077151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreuses structures de protéines sont désormais résolues à débit élevé, et donnent lieu à un besoin d'annotation automatique. Dans cette thèse, nous examinons plusieurs approches d'apprentissage statistique, basées sur les machines à vecteurs de support (SVM). En effet, la SVM offre plusieurs possibilités adaptées à la complexité des structures de protéines et de leurs interactions. Nous proposons de résoudre ces deux problèmes en examinant de nouveaux noyaux positifs. Dans une premième partie, une fonction noyau pour l'annotation de structures de protéines est présentée. Le noyau est basé sur une fonction de similarité appelée MAMMOTH. Les problèmes de classification correspondant à la classification d'enzymes EC, l'annotation structurelle SCOP, et l'annotation Gène Ontology, montrent que le noyau MAMMOTH renvoie de meilleurs résultats que d'autres choix de noyaux ou de classifieurs. Dans une seconde partie, nous implémentons un noyau dans le contexte de la prédiction supervisée d'objets ayant une structure particulière, à savoir des paires d'objets génériques. Le problème de l'inférence d'arêtes manquantes dans un réseau d'interaction de protéines se formule dans ce contexte. Nos résultats sur trois ensembles de données d'interaction entres structures de protéines montrent que le noyau pour paires basé l'apprentissage de métrique (MLPK), combiné avec le noyau MAMMOTH fournit une meilleure performance. Enfin, nous présentons une méthode nouvelle et efficace pour la prédiction supervisée d'interaction entre protéines. Un noyau pour paires est motivé par deux méthodes précédemment publiées, le noyaux pour paires basé sur le produit tensoriel, et le modèle local. Le lien entre les deux approches est explicité dans un cadre commun, qui fournit une généralisation par une interpolation
As large quantities of protein 3D structures are now routinely solved, there is a need for computational tools to automatically annotate protein structures. In this thesis, we investigate several machine learning approaches for this purpose, based on the popular support vector machine (SVM) algorithm. Indeed, the SVM offers several possibilities to overcome the complexity of protein structures, and their interactions. We propose to solve both issues by investigating new positive definite kernels. First, a kernel function for the annotation of protein structures is devised. The kernel is based on a similarity measure called MAMMOTH. Classification tasks corresponding to Enzyme Classification (EC), Structural Classification of Proteins (SCOP), and Gene Ontology (GO) annotation, show that the MAMMOTH kernel significantly outperforms other choices of kernels for protein structures and classifiers. Second, we design a kernel in the context of binary supervised prediction of objects with a specific structure, namely pairs of general objects. The problem of the inference of missing edges in a protein-protein interaction network may be cast in this context. Our results on three benchmarks of interaction between protein structures suggest that the Metric Learning Pairwise Kernel (MLPK), in combination with the MAMMOTH kernel, yield the best performance. Lastly, we introduce a new and efficient learning method for the supervised prediction of protein interaction. A pairwise kernel method is motivated by two previous methods, the Tensor Product Pairwise Kernel (TPPK) and the local model. The connection between the approaches is explicited and the two methods are formulated in a new common framework, that yields to natural generalization by an interpolation
21

Feng, Lou. "Algorithmes pour l' étude de la structure secondaire des ARN et l'alignement de séquences." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00781416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux concernent les études des algorithmes d'une part pour prédire les quantités thermodynamiques et la structure secondaire des ARN, d'autre part pour l'alignement de séquences. Dans une première partie, nous appliquons un algorithme de Monte Carlo non-Boltzmann pour estimer la densité d'états d' énergie des structures secondaires d'une séquence d'ARN, ou d'une hybridation de deux molécules d'ARN. Nous montrons d'abord que la densité estimée par notre programme est aussi bonne que la densité exacte, et le temps d'exécution de notre pro- gramme est beaucoup plus rapide. Nous calculons ensuite la température de dénaturation d'une hybridation de deux molécules d'ARN. Nous montrons que nos températures de dénaturation sont plus proches des valeurs expérimentales que les deux autres programmes existants. Puis, dans une deuxième partie, nous implémentons un algorithmes de type programmation dynamique qui engendre des structures sous-optimales dans lesquelles, nous espérons de trouver les deux structures fonctionnelles de riboswitch. Nous appliquons d'abord notre programme sur un exemple du riboswitch TPP dans lequel nous avons réussi à détecter ses deux structures fonctionnelles. Nous montrons ensuite que les structures prédites par notre programme sont plus proches de la structure réelle que celles des cinq autres programmes existants. Enfin, dans une troisième partie, nous présentons un algorithme de recherche des alignements sous-optimaux de séquences. Dans le cas de protéines, nous nous intéressons surtout à l'amélioration de la qualité d'alignement de séquences pour un niveau d'identité de séquence de 10-15%. Nous comparons d'abord nos alignements à ceux produits par l'algorithme de Needman-Wunsch. Nous prédisons plus d'alignements de référence que l'algorithme de Needman-Wunsch. Nous calculons ensuite les fréquences des paires de bases alignées et les entropies de position spécifique dans nos alignements sous-optimaux. Nous montrons que les entropies calculées à partir de notre programme sont plus corrélées avec les positions des paires de résidus fiablement alignées selon BAliBASE.
22

Milanese, Jean-Sébastien. "Développement d'un algorithme permettant la prédiction des métastases à partir de mutations germinales et celles du clone fondateur chez des patients atteints du cancer." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/28327.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec les constantes avancées du séquençage de nouvelle génération (NGS), la quantité de données disponibles devient massive. En parallèle, les méthodes de détection au cancer demeurent très spécifiques et peu efficaces. De plus, le taux de survie des patients est directement relié à la progression tumorale et par conséquent, aux méthodes de détection. Malgré des avancées technologiques très importantes dans les dernières années, le taux de mortalité du cancer ne cesse d’augmenter. L’importance de développer des nouvelles méthodes de détection applicables à tous les types de cancer devient une nécessité. Jusqu’à présent, il n’existe aucun modèle permettant d’utiliser le séquençage de nouvelle génération qui permet la prédiction de caractéristiques cancéreuse (ex : récurrence, résistance, etc.). Les sections suivantes démontrent la création d’un modèle utilisant des mutations somatiques et germinales pour prédire la récurrence et son applicabilité au travers de tous les types de cancers (et même différentes maladies). En utilisant des signatures géniques (combinaisons de gènes) spécifiques à chaque cancer, nous avons été en mesure d’obtenir une précision de 90% (et plus) pour le groupe où le cancer est récurrent. De nos connaissances, ceci est la première tentative de développement de modèle permettant de prédire le pronostic du patient en utilisant le NGS. Ceci amène un nouvel aspect pour la médecine personnalisée et spécialement pour le dépistage du cancer.
With the constant progress in neext generation sequencing, the quantity of data available for investigation becomes massive. In parallel, cancer detection methods and treatments remain very specific and barely accurate. Moreover, the patients survival rate are directly linked with tumoral progression and therefore, to cancer detection methods. Despite continual technological advances in recent years, the global cancer mortality rate keeps rising. The creation of new detection methods accessible to all cancer types becomes a necessity. As of now, there is no model available that using sequencing data to predict cancer traits (ex: recurrence, resistance, etc.). The following sections demonstrate the creation of such model using somatic and germline mutations to predict recurrence and its applicability across all cancer types (and even across different diseases). By using gene signatures specific to each cancer types, we were able to obtain an accuracy of 90% (and more) for the cohort where the cancer was recurrent. To our knowledge, this is the first attempt to develop a model that can predict the patient’s prognosis using genome sequencing data. This will affect future studies and improve personalized medicine as well as cancer detection methods.
23

Djouob, Charles. "Contribution à la synthèse des filtres microondes par une méthode de prédiction fondée sur des données expérimentales : application à la technologie microruban suspendu." Limoges, 1990. http://www.theses.fr/1990LIMO4001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Dandach, Hoda. "Prédiction de l'espace navigable par l'approche ensembliste pour un véhicule routier." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1892/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse porte sur le calcul d’un espace d’état navigable d’un véhicule routier, ainsi que sur l’observation et l’estimation de son état, à l’aide des méthodes ensemblistes par intervalles. Dans la première partie de la thèse, nous nous intéressons aux problèmes d’estimation d’état relevant de la dynamique du véhicule. Classiquement, l’estimation se fait en utilisant le filtrage de Kalman pour des problèmes d’estimation linéaires ou le filtrage de Kalman étendu pour les cas non-linéaires. Ces filtres supposent que les erreurs sur le modèle et sur les mesures sont blanches et gaussiennes. D’autre part, les filtres particulaires (PF), aussi connus comme Méthodes de Monte-Carlo séquentielles, constituent souvent une alternative aux filtres de Kalman étendus. Par contre, les performances des filtres PF dépendent surtout du nombre de particules utilisées pour l’estimation, et sont souvent affectées par les bruits de mesures aberrants. Ainsi, l’objectif principal de cette partie de travail est d’utiliser une des méthodes à erreurs bornées, qui est le filtrage par boites particulaires (Box Particle Filter (BPF)), pour répondre à ces problèmes. Cette méthode généralise le filtrage particulaire à l’aide des boites remplaçant les particules. A l’aide de l’analyse par intervalles, l’estimation de certains variables fortement reliées à la dynamique du véhicule comme le transfert de charge latérale, le roulis et la vitesse de roulis est donnée, à chaque instant, sous forme d’un intervalle contenant la vraie valeur simulée. Dans la deuxième partie de la thèse, une nouvelle formalisation du problème de calcul de l’espace navigable de l’état d’un véhicule routier est présentée. Un algorithme de résolution est construit, basé sur le principe de l’inversion ensembliste par intervalles et sur la satisfaction des contraintes. Nous cherchons à caractériser l’ensemble des valeurs de la vitesse longitudinale et la dérive au centre de gravité qui correspondent à un comportement stable du véhicule : pas de renversement ni dérapage. Pour décrire le risque de renversement, nous avons utilisé l’indicateur de transfert de charge latéral (LTR). Pour décrire le risque de dérapage, nous avons utilisé les dérives des roues. Toutes les variables sont liées géométriquement avec le vecteur d’état choisi. En utilisant ces relations, l’inversion ensembliste par intervalles est appliquée afin de trouver l’espace navigable de l’état tel que ces deux risques sont évités. L’algorithme Sivia est implémenté, approximant ainsi cet espace. Une vitesse maximale autorisée au véhicule est déduite. Elle est associée à un angle de braquage donné sur une trajectoire connue
In this thesis, we aim to characterize a vehicle stable state domain, as well as vehicle state estimation, using interval methods.In the first part of this thesis, we are interested in the intelligent vehicle state estimation.The Bayesian approach is one of the most popular and used approaches of estimation. It is based on the calculated probability of the density function which is neither evident nor simple all the time, conditioned on the available measurements.Among the Bayesian approaches, we know the Kalman filter (KF) in its three forms(linear, non linear and unscented). All the Kalman filters assume unimodal Gaussian state and measurement distributions. As an alternative, the Particle Filter(PF) is a sequential Monte Carlo Bayesian estimator. Contrary to Kalman filter,PF is supposed to give more information about the posterior even when it has a multimodal shape or when the noise follows non-Gaussian distribution. However,the PF is very sensitive to the imprecision due by bias or noise, and its efficiency and accuracy depend mainly on the number of propagated particles which can easily and significantly increase as a result of this imprecision. In this part, we introduce the interval framework to deal with the problems of the non-white biased measurements and bounded errors. We use the Box Particle Filter (BPF), an estimator based simultaneously on the interval analysis and on the particle approach. We aim to estimate some immeasurable state from the vehicle dynamics using the bounded error Box Particle algorithm, like the roll angle and the lateral load transfer, which are two dynamic states of the vehicle. BPF gives a guaranteed estimation of the state vector. The box encountering the estimation is guaranteed to encounter thereal value of the estimated variable as well.In the second part of this thesis, we aim to compute a vehicle stable state domain.An algorithm, based on the set inversion principle and the constraints satisfaction,is used. Considering the longitudinal velocity and the side slip angle at the vehicle centre of gravity, we characterize the set of these two state variables that corresponds to a stable behaviour : neither roll-over nor sliding. Concerning the roll-over risk,we use the lateral transfer ratio LTR as a risk indicator. Concerning the sliding risk, we use the wheels side slip angles. All these variables are related geometrically to the longitudinal velocity and the side slip angle at the centre of gravity. Using these constraints, the set inversion principle is applied in order to define the set ofthe state variables where the two mentioned risks are avoided. The algorithm of Sivia is implemented. Knowing the vehicle trajectory, a maximal allowed velocityon every part of this trajectory is deduced
25

Soucies, Nicolas. "Prédiction de performance d'algorithmes de traitement d'images sur différentes architectures hardwares." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066129/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de la vision par ordinateur, le choix d’une architecture de calcul est devenu de plus en plus complexe pour un spécialiste du traitement d’images. Le nombre d’architectures permettant de résoudre des algorithmes de traitement d’images augmente d’année en année. Ces algorithmes s’intègrent dans des cadres eux-mêmes de plus en plus complexes répondant à de multiples contraintes, que ce soit en terme de capacité de calculs, mais aussi en terme de consommation ou d’encombrement. A ces contraintes s’ajoute le nombre grandissant de types d’architectures de calculs pouvant répondre aux besoins d’une application (CPU, GPU, FPGA). L’enjeu principal de l’étude est la prédiction de la performance d’un système, cette prédiction pouvant être réalisée en phase amont d’un projet de développement dans le domaine de la vision. Dans un cadre de développement, industriel ou de recherche, l’impact en termes de réduction des coûts de développement, est d’autant plus important que le choix de l’architecture de calcul est réalisé tôt. De nombreux outils et méthodes d’évaluation de la performance ont été développés mais ceux-ci, se concentrent rarement sur un domaine précis et ne permettent pas d’évaluer la performance sans une étude complète du code ou sans la réalisation de tests sur l’architecture étudiée. Notre but étant de s’affranchir totalement de benchmark, nous nous sommes concentrés sur le domaine du traitement d’images pour pouvoir décomposer les algorithmes du domaine en éléments simples ici nommées briques élémentaires. Dans cette optique, un nouveau paradigme qui repose sur une décomposition de tout algorithme de traitement d’images en ces briques élémentaires a été conçu. Une méthode est proposée pour modéliser ces briques en fonction de paramètres software et hardwares. L’étude démontre que la décomposition en briques élémentaires est réalisable et que ces briques élémentaires peuvent être modélisées. Les premiers tests sur différentes architectures avec des données réelles et des algorithmes comme la convolution et les ondelettes ont permis de valider l'approche. Ce paradigme est un premier pas vers la réalisation d’un outil qui permettra de proposer des architectures pour le traitement d’images et d’aider à l’optimisation d’un programme dans ce domaine
In computer vision, the choice of a computing architecture is becoming more difficult for image processing experts. Indeed, the number of architectures allowing the computation of image processing algorithms is increasing. Moreover, the number of computer vision applications constrained by computing capacity, power consumption and size is increasing. Furthermore, selecting an hardware architecture, as CPU, GPU or FPGA is also an important issue when considering computer vision applications.The main goal of this study is to predict the system performance in the beginning of a computer vision project. Indeed, for a manufacturer or even a researcher, selecting the computing architecture should be done as soon as possible to minimize the impact on development.A large variety of methods and tools has been developed to predict the performance of computing systems. However, they do not cover a specific area and they cannot predict the performance without analyzing the code or making some benchmarks on architectures. In this works, we specially focus on the prediction of the performance of computer vision algorithms without the need for benchmarking. This allows splitting the image processing algorithms in primitive blocks.In this context, a new paradigm based on splitting every image processing algorithms in primitive blocks has been developed. Furthermore, we propose a method to model the primitive blocks according to the software and hardware parameters. The decomposition in primitive blocks and their modeling was demonstrated to be possible. Herein, the performed experiences, on different architectures, with real data, using algorithms as convolution and wavelets validated the proposed paradigm. This approach is a first step towards the development of a tool allowing to help choosing hardware architecture and optimizing image processing algorithms
26

Loeffel, Pierre-Xavier. "Algorithmes de machine learning adaptatifs pour flux de données sujets à des changements de concept." Electronic Thesis or Diss., Paris 6, 2017. http://www.theses.fr/2017PA066496.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous considérons le problème de la classification supervisée sur un flux de données sujets à des changements de concepts. Afin de pouvoir apprendre dans cet environnement, nous pensons qu’un algorithme d’apprentissage doit combiner plusieurs caractéristiques. Il doit apprendre en ligne, ne pas faire d’hypothèses sur le concept ou sur la nature des changements de concepts et doit être autorisé à s’abstenir de prédire lorsque c’est nécessaire. Les algorithmes en ligne sont un choix évident pour traiter les flux de données. De par leur structure, ils sont capables de continuellement affiner le modèle appris à l’aide des dernières observations reçues. La structure instance based a des propriétés qui la rende particulièrement adaptée pour traiter le problème des flux de données sujet à des changements de concept. En effet, ces algorithmes font très peu d’hypothèses sur la nature du concept qu’ils essaient d’apprendre ce qui leur donne une flexibilité qui les rend capable d’apprendre un vaste éventail de concepts. Une autre force est que stocker certaines des observations passées dans la mémoire peux amener de précieuses meta-informations qui pourront être utilisées par la suite par l’algorithme. Enfin, nous mettons en valeur l’importance de permettre à un algorithme d’apprentissage de s’abstenir de prédire lorsque c’est nécessaire. En effet, les changements de concepts peuvent être la source de beaucoup d’incertitudes et, parfois, l’algorithme peux ne pas avoir suffisamment d’informations pour donner une prédiction fiable
In this thesis, we investigate the problem of supervised classification on a data stream subject to concept drifts. In order to learn in this environment, we claim that a successful learning algorithm must combine several characteristics. It must be able to learn and adapt continuously, it shouldn’t make any assumption on the nature of the concept or the expected type of drifts and it should be allowed to abstain from prediction when necessary. On-line learning algorithms are the obvious choice to handle data streams. Indeed, their update mechanism allows them to continuously update their learned model by always making use of the latest data. The instance based (IB) structure also has some properties which make it extremely well suited to handle the issue of data streams with drifting concepts. Indeed, IB algorithms make very little assumptions about the nature of the concept they are trying to learn. This grants them a great flexibility which make them likely to be able to learn from a wide range of concepts. Another strength is that storing some of the past observations into memory can bring valuable meta-informations which can be used by an algorithm. Furthermore, the IB structure allows the adaptation process to rely on hard evidences of obsolescence and, by doing so, adaptation to concept changes can happen without the need to explicitly detect the drifts. Finally, in this thesis we stress the importance of allowing the learning algorithm to abstain from prediction in this framework. This is because the drifts can generate a lot of uncertainties and at times, an algorithm might lack the necessary information to accurately predict
27

Garaud, Jean-Didier. "Développement de méthodes de couplage aéro-thermo-mécanique pour la prédiction d'instabilités dans les structures aérospatiales chaudes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00359175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, on étudie numériquement, par la méthode partitionnée, trois types de couplage issus du domaine aérospatial : l'aéro-mécanique, l'aéro-thermique et l'aéro-thermo-mécanique.
Un moteur de couplage est développé pour gérer les aspects logistiques.
Outre l'indépendance spatiale et temporelle des différents codes, il permet de mettre en place rapidement un algorithme de couplage taillé sur mesure pour chaque application.

L'étude d'une tuyère du moteur Vulcain 2, refroidie par écoulement de gaz, sert de fil conducteur applicatif.
Modélisée à haute température par un comportement non-linéaire élasto-visco-plastique, la mécanique couplée est résolue par un algorithme simple.
Au contraire, la thermique se montre problématique, et nécessite l'utilisation conjointe de deux méthodes originales : un pas de temps automatique de couplage, et des conditions de raccord mixtes.
Ces deux cas sont finalement assemblés pour résoudre la question du couplage à trois codes.
28

Aupy, Guillaume. "Resilient and energy-efficient scheduling algorithms at scale." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0928.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, j'ai considéré d'un point de vue théorique deux problèmes importants pour les futures plateformes dîtes Exascales : les restrictions liées à leur fiabilité ainsi que les contraintes énergétiques. En première partie de cette thèse, je me suis intéressé à l'étude de placements optimal de ces checkpoints dans un but de minimisation de temps total d'exécution. En particulier, j'ai considéré les checkpoints périodiques et coordonnés. J'ai considéré des prédicteurs de fautes capables de prévoir, de manière imparfaite, les fautes arrivant sur la plateforme. Dans ce contexte, j'ai conçu des algorithmes efficaces pour résoudre mes problèmes. Dans un deuxième temps, j'ai considéré des fautes silencieuses. Ces fautes ne peuvent être détectées qu'uniquement par un système de vérification.Dans le cas où une de ces fautes est détectée, l'utilisateur doit retourner au point de sauvegarde le plus récent qui n'a pas été affecté par cette faute, si un tel point existe ! Dans ce contexte, j'ai à nouveau proposé des algorithmes optimaux au premier ordre, mixant points de sauvegarde et points de vérification. Dans la seconde partie de cette thèse, j'ai considéré des problèmes énergétiques liés à ces mêmes plateformes. Ces problèmes critiques doivent être reliés aux problèmes de fiabilité de la partie précédente. Dans ce contexte, j'ai couplé des techniques de baisse de consommation énergétique à des techniques d'augmentation de fiabilité comme la reexécution, la réplication ainsi que le checkpoint. Pour ces différents problèmes, j'ai pu fournir des algorithmes dont l'efficacité a été montrée soit au travers de simulations, soit grâce à des preuves mathématiques
This thesis deals with two issues for future Exascale platforms, namelyresilience and energy.In the first part of this thesis, we focus on the optimal placement ofperiodic coordinated checkpoints to minimize execution time.We consider fault predictors, a software used by system administratorsthat tries to predict (through the study of passed events) where andwhen faults will strike. In this context, we propose efficientalgorithms, and give a first-order optimal formula for the amount ofwork that should be done between two checkpoints.We then focus on silent data corruption errors. Contrarily to fail-stopfailures, such latent errors cannot be detected immediately, and amechanism to detect them must be provided. We compute the optimal periodin order to minimize the waste.In the second part of the thesis we address the energy consumptionchallenge.The speed scaling technique consists in diminishing the voltage of theprocessor, hence diminishing its execution speed. Unfortunately, it waspointed out that DVFS increases the probability of failures. In thiscontext, we consider the speed scaling technique coupled withreliability-increasing techniques such as re-execution, replication orcheckpointing. For these different problems, we propose variousalgorithms whose efficiency is shown either through thoroughsimulations, or approximation results relatively to the optimalsolution. Finally, we consider the different energetic costs involved inperiodic coordinated checkpointing and compute the optimal period tominimize energy consumption, as we did for execution time
29

Varet, Suzanne. "Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00511385.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
30

Loeffel, Pierre-Xavier. "Algorithmes de machine learning adaptatifs pour flux de données sujets à des changements de concept." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066496/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous considérons le problème de la classification supervisée sur un flux de données sujets à des changements de concepts. Afin de pouvoir apprendre dans cet environnement, nous pensons qu’un algorithme d’apprentissage doit combiner plusieurs caractéristiques. Il doit apprendre en ligne, ne pas faire d’hypothèses sur le concept ou sur la nature des changements de concepts et doit être autorisé à s’abstenir de prédire lorsque c’est nécessaire. Les algorithmes en ligne sont un choix évident pour traiter les flux de données. De par leur structure, ils sont capables de continuellement affiner le modèle appris à l’aide des dernières observations reçues. La structure instance based a des propriétés qui la rende particulièrement adaptée pour traiter le problème des flux de données sujet à des changements de concept. En effet, ces algorithmes font très peu d’hypothèses sur la nature du concept qu’ils essaient d’apprendre ce qui leur donne une flexibilité qui les rend capable d’apprendre un vaste éventail de concepts. Une autre force est que stocker certaines des observations passées dans la mémoire peux amener de précieuses meta-informations qui pourront être utilisées par la suite par l’algorithme. Enfin, nous mettons en valeur l’importance de permettre à un algorithme d’apprentissage de s’abstenir de prédire lorsque c’est nécessaire. En effet, les changements de concepts peuvent être la source de beaucoup d’incertitudes et, parfois, l’algorithme peux ne pas avoir suffisamment d’informations pour donner une prédiction fiable
In this thesis, we investigate the problem of supervised classification on a data stream subject to concept drifts. In order to learn in this environment, we claim that a successful learning algorithm must combine several characteristics. It must be able to learn and adapt continuously, it shouldn’t make any assumption on the nature of the concept or the expected type of drifts and it should be allowed to abstain from prediction when necessary. On-line learning algorithms are the obvious choice to handle data streams. Indeed, their update mechanism allows them to continuously update their learned model by always making use of the latest data. The instance based (IB) structure also has some properties which make it extremely well suited to handle the issue of data streams with drifting concepts. Indeed, IB algorithms make very little assumptions about the nature of the concept they are trying to learn. This grants them a great flexibility which make them likely to be able to learn from a wide range of concepts. Another strength is that storing some of the past observations into memory can bring valuable meta-informations which can be used by an algorithm. Furthermore, the IB structure allows the adaptation process to rely on hard evidences of obsolescence and, by doing so, adaptation to concept changes can happen without the need to explicitly detect the drifts. Finally, in this thesis we stress the importance of allowing the learning algorithm to abstain from prediction in this framework. This is because the drifts can generate a lot of uncertainties and at times, an algorithm might lack the necessary information to accurately predict
31

Alliod, Charlotte. "Conception et modélisation de nouvelles molécules hautement énergétiques en fonction des contraintes réglementaires et environnementales." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis deux décennies, la recherche militaire se focalise sur l'amélioration des critères de performances des explosifs, tout en prenant en compte leurs impacts environnementaux et toxicologiques. Ces enjeux sont encadrés par une réglementation stricte : REACh (Registration, Evaluation, Authorization and Restriction of Chemicals) permettant d'assurer un haut niveau de protection sanitaire et environnementale. De nos jours, développer des explosifs ou molécules hautement énergétiques (High Energy Materials (HEM)) ayant un effet réduit sur l'homme et l'environnement est un sujet de préoccupation majeur. Ainsi, en collaboration avec Airbus Safran Lauchers (ASL), un programme de recherche a été mis en place, afin d'obtenir des outils optimisés pour la prédiction de la toxicité des HEMs et concevoir de nouvelles molécules HEMS non toxiques et réglementaires.Différentes méthodes in silico ont été utilisées dont des Relations Structure Activité Quantitatives (ou Quantitative Structure-Activity Relationship (QSAR)) et le Machine Learning. La recherche de similarité structurale parmi les molécules est un outil novateur sur lequel nous avons basé nos prédictions in silico. Cette similarité est obtenue grâce à un algorithme intelligent développé au sein du Pôle Rhône Alpin de Bio-Informatique de Lyon et qui a donné lieu à un brevet. Cet algorithme nous permet d'obtenir des prédictions plus précises basées sur des données expérimentales issues de directives européennes
For the last two decades, the military research has focused on the improvement of explosive performances, while taking into account their environmental and toxicological impacts. These issues are governed by strict regulations: REACh (Registration, Evaluation, Authorization and Restriction of Chemicals) to ensure a high level of health and environmental protection.Today, it's a major consideration to develop High Energetic Materials (HEM) or molecules who's hazard on human health and environment are reduced. Thus, in collaboration with Airbus Safran Lauchers (ASL), a research program was set up to obtain optimized tools for predicting the potential toxicity of HEM and to design new non-toxic and regulatory molecules.Different in silico methods have been used, including Quantitative Structure Activity Activity Relationships (QSARs) and Machine Learning.The search for structural similarity among molecules is an innovative tool on which we based our predictions in silico. This similarity is obtained thanks to an intelligent algorithm developed within the Pole Rhone Alpin de Bio-Informatique of Lyon which gave rise to a patent. This algorithm allows us to obtain more accurate predictions based on experimental data from European directives
32

Laroum, Sami. "Prédiction de la localisation des protéines membranaires : méthodes méta-heuristiques pour la détermination du potentiel d'insertion des acides aminés." Phd thesis, Université d'Angers, 2011. http://tel.archives-ouvertes.fr/tel-01064309.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, nous nous intéressons à la localisation des protéines adressées vers la membrane du réticulum endoplasmique, et plus spécifiquement à la reconnaissance des segments transmembranaires et des peptides signaux. En utilisant les dernières connaissances acquises sur les mécanismes d'insertion d'un segment dans la membrane, nous proposons une méthode de discrimination de ces deux types de séquences basée sur le potentiel d'insertion de chaque acide aminé dans la membrane. Cela amène à rechercher pour chaque acide aminé une courbe donnant son potentiel d'insertion en fonction de sa place dans une fenêtre correspondant à l'épaisseur de la membrane. Notre objectif est de déterminer ≪ in silico ≫ une courbe pour chaque acide aminé, afin d'obtenir les meilleures performances pour notre méthode de classification. L'optimisation, sur des jeux de données construits à partir des banques de données de protéines, des courbes est un problème difficile que nous abordons grâce aux méthodes méta-heuristiques. Nous présentons tout d'abord un premier algorithme de recherche locale permettant d'apprendre un ensemble de courbes. Son évaluation sur les différents jeux de données montre de bons résultats de classification. Cependant, nous constatons une difficulté d'ajustement pour les courbes de certains acides aminés. La restriction de l'espace de recherche grâce à des informations pertinentes sur les acides aminés et l'introduction d'un voisinage multiple nous permettent d'améliorer les performances de notre méthode et en même temps de stabiliser les courbes apprises. Nous présentons également un algorithme génétique développé afin d'explorer de manière plus diversifiée l'espace de recherche de ce problème.
33

Boulanouar, Ibtissem. "Algorithmes de suivi de cible mobile pour les réseaux de capteurs sans fils." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1077/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux de capteurs sans fils se définissent comme un ensemble de petits appareils autonomes et interconnectés. Ces capteurs sont déployés dans une zone d'intérêt dans le but de collecter des informations de l'environnement comme la température ou la qualité de l'air, suivant l'application envisagée. L'évolution de ces dispositifs de capture vers le multimédia ouvre l'accès à une plus large palette d'applications et de services pour une meilleure maitrise de notre environnement. Dans cette thèse nous nous intéressons au suivi de cible mobile dans les réseaux de capteurs sans fils, certains de ces capteurs pouvant collecter des images. Le suivi de cible (Tracking) consiste à détecter et à localiser sur l'ensemble de sa trajectoire une cible traversant une zone d'intérêt. Cette application peut s'avérer très utile, par exemple, pour détecter et enregistrer les déplacements d'un intrus dans une zone sensible ou encore pour suivre les déplacements d'une personne assistée et munie d'un appareil avec interface radio. Contrairement aux systèmes de surveillance classiques qui nécessitent une infrastructure fixe, les réseaux de capteurs sans fils sont aussi faciles à installer qu'à désinstaller. De plus, grâce à leur polyvalence, ils peuvent être utilisés dans de nombreux environnements hostiles et inaccessibles pour l'être humain. Toutefois, étant restreints en énergie, ils ne peuvent rester actifs en permanence au risque de limiter considérablement leur durée de vie. Afin de résoudre ce problème, l'idée est d'activer uniquement les capteurs qui sont sur la trajectoire de la cible au moment ou cette dernière est à leur portée radio ou visuelle. La question est donc : comment et sur quels critères activer ces capteurs afin d'obtenir à tout moment le meilleur compromis entre la précision du suivi et la préservation des ressources énergétiques ? C'est à cette question que nous essayerons de répondre tout au long de cette thèse. Dans un premier temps nous nous intéressons aux cibles communicantes qui ont la faculté d'émettre des signaux et donc de faciliter grandement le processus de suivi. Le défi ici est de relayer l'information entre les différents capteurs concernés. Nous utilisons pour cela un algorithme de déploiement basé sur le concept de forces virtuelles (VFA : Virtual Forces Algorithm) associé à un algorithme de suivi collaboratif et distribué implémenté sur un réseau organisé en clusters. Ensuite, nous traitons le cas, plus complexe et plus fréquent, des cibles non communicantes. L'objectif est de détecter la présence de la cible uniquement à l'aide de capteurs de présence. Pour cela nous proposons le déploiement d'un réseau de capteurs sans fil hétérogènes composé decapteurs de mouvement en charge de la partie détection de la cible et de capteurs vidéo en charge de la partie localisation. Lorsqu'une cible est détectée par un capteur de mouvement, l'information est communiquée aux capteurs vidéo voisins qui décident d'activer ou non leurs caméras en se basant sur des critères prédéfinis tenant compte de l'angle d'orientation des caméras. Enfin, dans une dernière contribution nous nous intéressons plus spécifique mentaux modèles de mobilité de la cible. Ces modèles nous permettent d'anticiper ses déplacements et d'affiner le processus d'activation des capteurs qui sont sur sa trajectoire. Nous utilisons pour cela le filtre de Kalman étendu combiné à un mécanisme de détection de changements de direction nommé CuSum (Cumulative Summuray). Ce mécanisme nous permet de calculer efficacement les futures coordonnées de la cible et de réveiller les capteurs en conséquence
Wireless Sensor Networks (WSN) are a set of tiny autonomous and interconnected devices. These Sensors are scattered in a region of interest to collect information about the surrounding environment depending on the intended application. Nowadays, sensors allow handling more complex data such as multimedia flow. Thus, we observe the emergence of Wireless Multimedia Sensor Networks opening a wider range of applications. In this work, we focus on tracking moving target in these kinds of networks. Target tracking is defined as a two-stage application: detection and localization of the target through its evolution inside an area of interest. This application can be very useful. For example, the presence of an intruder can be detected and its position inside a sensitive area reported, elderly or sick persons carrying sensors can be tracked anytime and so on. Unlike classical monitoring systems, WSN are more flexible and more easy to set up. Moreover, due to their versatility and autonomy they can be used in hostile regions, inaccessible for human. However, these kinds of networks have some limitations: wireless links are not reliable and data processing and transmission are greedy processes in term of energy. To overcome the energy constraint, only the sensors located in target pathway should be activated. Thus, the question is : how to select these sensors to obtain the best compromise between the tracking precision and the energy consumption? This is the question we are trying to answer in this dissertation. Firstly, we focus on communicating targets which have the ability to transmit signals and greatly facilitate the tracking process. The challenge here is to relay the information between the concerned sensors. In order to deal with this challenge, we use a deployment strategy based on virtual forces (VFA: Virtual Forces Algorithm) associated to a distributed tracking algorithm implemented in a cluster-based network. Secondly, we handle a more complex and more frequent case of non-communicating targets. The objective is to detect the presence of such target using movement sensors. We propose the deployment of an heterogeneous wireless sensor networks composed of movement sensors used to detect the target and camera sensors used to locate it. When the target is detected the information is sent to the camera sensors which decide whether to activate or not their cameras based on probabilistic criteria which include the camera orientation angle. Finally, as our last contribution, we specifically focus on target mobility models. These models help us to predict target behaviour and refine the sensor activation process. We use the Extended Kalamn filter as prediction model combined with a change detection mechanism named CuSum (Cumulative Summuray). This mechanism allows to efficiently compute the future target coordinates, and to select which sensors to activate
34

Laroum, Sami. "Prédiction de la localisation des protéines membranaires : méthodes méta-heuristiques pour la détermination du potentiel d'insertion des acides aminés." Phd thesis, Angers, 2011. https://theses.hal.science/tel-01064309.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, nous nous intéressons à la localisation des protéines adressées vers la membrane du réticulum endoplasmique, et plus spécifiquement à la reconnaissance des segments transmembranaires et des peptides signaux. En utilisant les dernières connaissances acquises sur les mécanismes d'insertion d'un segment dans la membrane, nous proposons une méthode de discrimination de ces deux types de séquences basée sur le potentiel d'insertion de chaque acide aminé dans la membrane. Cela amène à rechercher pour chaque acide aminé une courbe donnant son potentiel d'insertion en fonction de sa place dans une fenêtre correspondant à l'épaisseur de la membrane. Notre objectif est de déterminer ≪ in silico ≫ une courbe pour chaque acide aminé, afin d'obtenir les meilleures performances pour notre méthode de classification. L'optimisation, sur des jeux de données construits à partir des banques de données de protéines, des courbes est un problème difficile que nous abordons grâce aux méthodes méta-heuristiques. Nous présentons tout d'abord un premier algorithme de recherche locale permettant d'apprendre un ensemble de courbes. Son évaluation sur les différents jeux de données montre de bons résultats de classification. Cependant, nous constatons une difficulté d'ajustement pour les courbes de certains acides aminés. La restriction de l'espace de recherche grâce à des informations pertinentes sur les acides aminés et l'introduction d'un voisinage multiple nous permettent d'améliorer les performances de notre méthode et en même temps de stabiliser les courbes apprises. Nous présentons également un algorithme génétique développé afin d'explorer de manière plus diversifiée l'espace de recherche de ce problème
In this work, we are interested in the localization of proteins transported towards the endoplasmic reticulum membrane, and more specifically to the recognition of transmembrane segments and signal peptides. By using the last knowledges acquired on the mechanisms of insertion of a segment in the membrane, we propose a discrimination method of these two types of sequences based on the potential of insertion of each amino acid in the membrane. This leads to search for each amino acid a curve giving its potential of insertion according to its place in a window corresponding to the thickness of the membrane. Our goal is to determine "in silico" a curve for each amino acid to obtain the best performances for our method of classification. The optimization, on data sets constructed from data banks of proteins, of the curves is a difficult problem that we address through the meta-heuristic methods. We first present a local search algorithm for learning a set of curves. Its assessment on the different data sets shows good classification results. However, we notice a difficulty in adjusting the curves of certain amino acids. The restriction of the search space with relevant information on amino acids and the introduction of multiple neighborhood allow us to improve the performances of our method and at the same time to stabilize the learnt curves. We also developed a genetic algorithm to explore in a more diversified way the space of search for this problem
35

Zgheib, Rawad. "Algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00273585.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On souhaite reconstruire en ligne des signaux à échantillons manquants en utilisant une approche paramétrique. On propose alors des algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants. On s'intéresse premièrement à l'extension des algorithmes de gradient au cas des signaux à échantillons manquants. On propose alors deux alternatives à un algorithme existant fondées sur deux autres prédicteurs. Les algorithmes proposés convergent vers une estimation non biaisée des paramètres. Or les algorithmes de gradient souffrent d'une faible vitesse de convergence. Pour cela, on s'intéresse à l'extension de l'algorithme MCR au cas des signaux à échantillons manquants. On utilise alors l'algorithme MCR pseudo-linéaire pour l'identification conjointement avec un filtre de Kalman pour une prédiction optimale du signal au sens des moindres carrés. L'algorithme résultant permet une identification non biaisée des paramètres. De plus, il est rapide et bien adapté à l'identification de processus non stationnaires. Néanmoins, souhaitant contrôler la stabilité du filtre identifié, on s'intéresse ensuite à une identification fondée sur une structure en treillis du filtre. Ainsi, on propose une extension de l'algorithme de Burg adaptatif au cas des signaux à échantillons manquants, en utilisant pour la prédiction un filtre de Kalman. La stabilité du modèle ainsi identifié est garantie. De plus, l'algorithme s'adapte rapidement aux variations des paramètres. Finalement, on propose d'utiliser les algorithmes proposés dans un système à transmission non uniforme. On obtient ainsi l'amélioration simultanée du RSB et du débit de transmission moyen.
36

Saule, Cédric. "Modèles combinatoires des structures d'ARN avec ou sans pseudonoeuds, application à la comparaison de structures." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00788467.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thèse proposent une modélisation des structures secondaires d'ARN avec ou sans pseudonoeuds. Selon une approche combinatoire, nous concevons différents modèles de ces structures que nous étudions sous deux aspects. D'une part, nous définissons des modèles de génération aléatoire qui nous permettent de définir une mesure permettant une meilleure reconnaissance des structures biologiques. D'autre part, grâce à des codages appropriés et des bijections vers des langages représentés par des grammaires non-contextuelles, nous dénombrons les structures composant l'espace de prédiction des algorithmes exacts de prédiction de structures secondaires avec pseudonoeuds. La première partie concerne des modèles aléatoires de structures d'ARN sans pseudonoeuds. Nous montrons que ces structures aléatoires constituent une source de bruit pertinente lorsqu'il s'agit de déterminer si les logiciels de comparaison de structures attribuent un meilleur score à des comparaisons entre structures issues de la même famille d'ARN qu'à des alignements entre structures réelles et aléatoires. Nous comparons ensuite la sensibilité et la spécificité de RNAdistance, un programme de comparaison de structures, selon l'usage du score "brut" ou bien de la Z-valeur de ce score. Nous calculons plusieurs Z-valeurs selon différents modèles de structures aléatoires. Nous montrons que la Z-valeur calculée à partir d'un modèle de Markov améliore la détection des ARN de grande taille tandis que la Z-valeur calculée à partir d'un modèle basé sur des grammaires pondérées améliore la détection des ARN de petite taille. Nous nous intéressons ensuite, dans une deuxième partie, aux algorithmes de prédiction de structure secondaire avec pseudonoeuds. Nous complètons tout d'abord la classification de Condon et al. en décrivant les structures par leur graphe de cohérence et nous caractérisons également la restriction planaire de la classe de Rivas et Eddy. Nous étudions ensuite le compromis entre complexité des algorithmes existant et la taille de leur espace de prédiction. Nous dénombrons les structures en les codant par des mots de langages algébriques. Nous en déduisons alors des formules asymptotiques de dénombrement. Nous mettons aussi en évidence une bijection entre la classe de Lyngsø et Pedersen et des cartes planaires ainsi qu'une bijection entre la classe des pseudonoeuds indifférenciés, que nous avons introduite, et les arbres ternaires. Nous montrons alors que les différences de compléxité observées des algorithmes de prédiction ne sont pas toujours justifiées par la taille de l'espace de prédiction. A partir de ces grammaires, nous concevons des algorithmes efficaces de génération aléatoire, uniforme ou non uniforme contrôlée, de structures d'ARN avec pseudonoeuds.
37

Sutton-Charani, Nicolas. "Apprentissage à partir de données et de connaissances incertaines : application à la prédiction de la qualité du caoutchouc." Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP1835/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour l’apprentissage de modèles prédictifs, la qualité des données disponibles joue un rôle important quant à la fiabilité des prédictions obtenues. Ces données d’apprentissage ont, en pratique, l’inconvénient d’être très souvent imparfaites ou incertaines (imprécises, bruitées, etc). Ce travail de doctorat s’inscrit dans ce cadre où la théorie des fonctions de croyance est utilisée de manière à adapter des outils statistiques classiques aux données incertaines.Le modèle prédictif choisi est l’arbre de décision qui est un classifieur basique de l’intelligence artificielle mais qui est habituellement construit à partir de données précises. Le but de la méthodologie principale développée dans cette thèse est de généraliser les arbres de décision aux données incertaines (floues, probabilistes,manquantes, etc) en entrée et en sortie. L’outil central d’extension des arbres de décision aux données incertaines est une vraisemblance adaptée aux fonctions de croyance récemment proposée dans la littérature dont certaines propriétés sont ici étudiées de manière approfondie. De manière à estimer les différents paramètres d’un arbre de décision, cette vraisemblance est maximisée via l’algorithme E2M qui étend l’algorithme EM aux fonctions de croyance. La nouvelle méthodologie ainsi présentée, les arbres de décision E2M, est ensuite appliquée à un cas réel : la prédiction de la qualité du caoutchouc naturel. Les données d’apprentissage, essentiellement culturales et climatiques, présentent de nombreuses incertitudes qui sont modélisées par des fonctions de croyance adaptées à ces imperfections. Après une étude statistique standard de ces données, des arbres de décision E2M sont construits et évalués en comparaison d’arbres de décision classiques. Cette prise en compte des incertitudes des données permet ainsi d’améliorer très légèrement la qualité de prédiction mais apporte surtout des informations concernant certaines variables peu prises en compte jusqu’ici par les experts du caoutchouc
During the learning of predictive models, the quality of available data is essential for the reliability of obtained predictions. These learning data are, in practice very often imperfect or uncertain (imprecise, noised, etc). This PhD thesis is focused on this context where the theory of belief functions is used in order to adapt standard statistical tools to uncertain data.The chosen predictive model is decision trees which are basic classifiers in Artificial Intelligence initially conceived to be built from precise data. The aim of the main methodology developed in this thesis is to generalise decision trees to uncertain data (fuzzy, probabilistic, missing, etc) in input and in output. To realise this extension to uncertain data, the main tool is a likelihood adapted to belief functions,recently presented in the literature, whose behaviour is here studied. The maximisation of this likelihood provide estimators of the trees’ parameters. This maximisation is obtained via the E2M algorithm which is an extension of the EM algorithm to belief functions.The presented methodology, the E2M decision trees, is applied to a real case : the natural rubber quality prediction. The learning data, mainly cultural and climatic,contains many uncertainties which are modelled by belief functions adapted to those imperfections. After a simple descriptiv statistic study of the data, E2M decision trees are built, evaluated and compared to standard decision trees. The taken into account of the data uncertainty slightly improves the predictive accuracy but moreover, the importance of some variables, sparsely studied until now, is highlighted
38

Brinda, Karel. "Nouvelles techniques informatiques pour la localisation et la classification de données de séquençage haut débit." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1027/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis leur émergence autour de 2006, les technologies de séquençage haut débit ont révolutionné la recherche biologique et médicale. Obtenir instantanément une grande quantité de courtes ou longues lectures de presque tout échantillon biologique permet de détecter des variantes génomiques, révéler la composition en espèces d’un métagénome, déchiffrer la biologie du cancer, décoder l'évolution d’espèces vivantes ou disparues, ou mieux comprendre les schémas de la migration humaine et l'histoire humaine en général. La vitesse à laquelle augmente le débit des technologies de séquençage dépasse la croissance des capacités de calcul et de stockage, ce qui crée de nouveaux défis informatiques dans le traitement de données de séquençage haut débit. Dans cette thèse, nous présentons de nouvelles techniques informatiques pour la localisation (mapping) de lectures dans un génome de référence et pour la classification taxonomique. Avec plus d'une centaine d’outils de localisation publiés, ce problème peut être considéré comme entièrement résolu. Cependant, une grande majorité de programmes suivent le même paradigme et trop peu d'attention a été accordée à des approches non-standards. Ici, nous introduisons la localisation dynamique dont nous montrons qu’elle améliore significativement les alignements obtenus, par comparaison avec les approches traditionnelles. La localisation dynamique est basée sur l'exploitation de l'information fournie par les alignements calculés précédemment, afin d’améliorer les alignements des lectures suivantes. Nous faisons une première étude systématique de cette approche et démontrons ses qualités à l'aide de Dynamic Mapping Simulator, une pipeline pour comparer les différents scénarios de la localisation dynamique avec la localisation statique et le “référencement itératif”. Une composante importante de la localisation dynamique est un calculateur du consensus online, c’est-à-dire un programme qui collecte des statistiques des alignements pour guider, à la volée, les mises à jour de la référence. Nous présentons OCOCO, calculateur du consensus online qui maintient des statistiques des positions génomiques individuelles à l’aide de compteurs de bits compacts. Au-delà de son application à la localisation dynamique, OCOCO peut être utilisé comme un calculateur de SNP online dans divers pipelines d'analyse, ce qui permet de prédire des SNP à partir d'un flux sans avoir à enregistrer les alignements sur disque. Classification métagénomique de lectures d’ADN est un autre problème majeur étudié dans la thèse. Etant donné des milliers de génomes de référence placés sur un arbre taxonomique, le problème consiste à affecter rapidement aux nœuds de l'arbre une énorme quantité de lectures NGS, et éventuellement estimer l'abondance relative des espèces concernées. Dans cette thèse, nous proposons des techniques améliorées pour cette tâche. Dans une série d'expériences, nous montrons que les graines espacées améliorent la précision de la classification. Nous présentons Seed-Kraken, extension sur les graines espacées du logiciel populaire Kraken. En outre, nous introduisons une nouvelle stratégie d'indexation basée sur le transformé de Burrows-Wheeler (BWT), qui donne lieu à un indice beaucoup plus compact et plus informatif par rapport à Kraken. Nous présentons une version modifiée du logiciel BWA qui améliore l’index BWT pour la localisation rapide de k-mers
Since their emergence around 2006, Next-Generation Sequencing technologies have been revolutionizing biological and medical research. Obtaining instantly an extensive amount of short or long reads from almost any biological sample enables detecting genomic variants, revealing the composition of species in a metagenome, deciphering cancer biology, decoding the evolution of living or extinct species, or understanding human migration patterns and human history in general. The pace at which the throughput of sequencing technologies is increasing surpasses the growth of storage and computer capacities, which still creates new computational challenges in NGS data processing. In this thesis, we present novel computational techniques for the problems of read mapping and taxonomic classification. With more than a hundred of published mappers, read mapping might be considered fully solved. However, the vast majority of mappers follow the same paradigm and only little attention has been paid to non-standard mapping approaches. Here, we propound the so-called dynamic mapping that we show to significantly improve the resulting alignments compared to traditional mapping approaches. Dynamic mapping is based on exploiting the information from previously computed alignments, helping to improve the mapping of subsequent reads. We provide the first comprehensive overview of this method and demonstrate its qualities using Dynamic Mapping Simulator, a pipeline that compares various dynamic mapping scenarios to static mapping and iterative referencing. An important component of a dynamic mapper is an online consensus caller, i.e., a program collecting alignment statistics and guiding updates of the reference in the online fashion. We provide OCOCO, the first online consensus caller that implements a smart statistics for individual genomic positions using compact bit counters. Beyond its application to dynamic mapping, OCOCO can be employed as an online SNP caller in various analysis pipelines, enabling calling SNPs from a stream without saving the alignments on disk. Metagenomic classification of NGS reads is another major problem studied in the thesis. Having a database of thousands reference genomes placed on a taxonomic tree, the task is to rapidly assign to tree nodes a huge amount of NGS reads, and possibly estimate the relative abundance of involved species. In this thesis, we propose improved computational techniques for this task. In a series of experiments, we show that spaced seeds consistently improve the classification accuracy. We provide Seed-Kraken, a spaced seed extension of Kraken, the most popular classifier at present. Furthermore, we suggest a new indexing strategy based on a BWT-index, obtaining a much smaller and more informative index compared to Kraken. We provide a modified version of BWA that improves the BWT-index for a quick k-mer look-up
39

Blot, Guillaume. "Élaboration, parcours et automatisation de traces et savoirs numériques." Thesis, Paris 4, 2017. http://www.theses.fr/2017PA040089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comment l'accès au savoir peut-il être impacté par la technologie ? Il suffit d'observer le virage intenté par les outils de communication au début des années 2000 pour se rendre compte : convergence des médias, pratiques participatives et numérisation massive des données. Dans ce contexte, on imagine que l'accès au savoir tend à se démocratiser. En effet, les individus semblent se réapproprier les espaces de vie, en inversant le modèle de transmission top-down, qui va du producteur vers le consommateur, au profit de processus de transfert basés sur l'intelligence collective. Pourtant, on aurait tort de réduire cette réorganisation à un simple renversement du modèle. Car l'intelligence collective est encline à divers biais cognitifs et socio-cognitifs, amenant parfois vers des situations irrationnelles. Autrefois, on s’accommodait de ces mécaniques sociales aux conséquences limitées, aujourd'hui les savoirs numérisés constituent des ensembles massivement communiquant, donnant naissance à de nouvelles voies d'accès et à de nouveaux clivages. Pourquoi ce savoir qui n'a jamais été aussi massif et ouvert, se révèle-t-il si sélectif ? Je propose d'explorer ce paradoxe. L'enregistrement massif et constant de nos traces numériques et l'hyper-connexion des individus, participent à la construction de structures organisationnelles, où se retrouvent numérisées de manière complexe, une partie des dynamiques sociales. En formalisant de la sorte les voies navigables, ces structures organisationnelles façonnent nos trajectoires. Sur cette base, les informaticiens ont mis au point des algorithmes de parcours individualisés, ayant pour objectifs de prédire et de recommander. Ainsi, on propose d'automatiser l'accès au savoir. Se pose alors la question de la gouvernance des individus, dans un contexte où l'intelligence collective est soumise à l'infrastructure : enregistrement des traces, composition des structures organisationnelles et algorithmes de parcours
How access to knowledge can be impacted by Information Technology? In the earlier 2000s, communication tools caused a significant turn : media convergence, participative practices and massive data. In this way, free access to knowledge might tend to be democratized. People seem to regain spaces, reversing traditional top-down model, going from producer to consumer, for the benefit of an horizontal model based on collective intelligence. However, it should not automatically be assumed that this leads to a simple model reversing. Collective intelligence is subject to cognitive biases, leading to potential irrational situations. Formerly, those social mechanisms had limited consequences. Nowadays, digital knowledge are massive communicating spaces, giving birth to new access paths and new cleavages. Why this massive and open knowledge, is actually so selective? I propose to explore this paradox. Massive and constant tracking of traces and individuals hyper-connection, these two facts help organizational structures design, where social dynamics are digitalized in a complex way. These structures formalize human trajectories. On this basis, computer scientists set up prediction algorithms and recommender engines. This way, knowledge access is automatized. It can then be asked about people governance, in this context of infrastructure submission: recording traces, designing knowledge structure and automating algorithms
40

Travassos-Romano, João Marcos. "Localisation de fréquences bruitées par filtrage adaptatif et implantation d'algorithmes des moindres carrés rapides." Paris 11, 1987. http://www.theses.fr/1987PA112387.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une analyse détaillée sur les performances des prédicteurs adaptatifs et une proposition de nouvelles techniques pour la caractérisation de signaux en temps réels. La localisation des fréquences dans le bruit est considérée. Ce problème est fondamental en radiocommunication
41

Cénac, Peggy. "Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingales." Habilitation à diriger des recherches, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00954528.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
42

Samba, Alassane. "Science des données au service des réseaux d'opérateur : proposition de cas d’utilisation, d’outils et de moyens de déploiement." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0111/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'évolution des télécommunications amené aujourd'hui à un foisonnement des appareils connectés et une massification des services multimédias. Face à cette demande accrue de service, les opérateurs ont besoin d'adapter le fonctionnement de leurs réseaux, afin de continuer à garantir un certain niveau de qualité d'expérience à leurs utilisateurs. Pour ce faire, les réseaux d'opérateur tendent vers un fonctionnement plus cognitif voire autonomique. Il s'agit de doter les réseaux de moyens d'exploiter toutes les informations ou données à leur disposition, les aidant à prendre eux-mêmes les meilleures décisions sur leurs services et leur fonctionnement, voire s'autogérer. Il s'agit donc d'introduire de l'intelligence artificielle dans les réseaux. Cela nécessite la mise en place de moyens d'exploiter les données, d'effectuer surelles de l'apprentissage automatique de modèles généralisables, apportant l’information qui permet d'optimiser les décisions. L'ensemble de ces moyens constituent aujourd'hui une discipline scientifique appelée science des données. Cette thèse s'insère dans une volonté globale de montrer l'intérêt de l'introduction de la science des données dans différents processus d'exploitation des réseaux. Elle comporte deux contributions algorithmiques correspondant à des cas d'utilisation de la science des données pour les réseaux d'opérateur, et deux contributions logicielles, visant à faciliter, d'une part l'analyse, et d'autre part le déploiement des algorithmes issus de la science des données. Les résultats concluants de ces différents travaux ont démontré l'intérêt et la faisabilité de l'utilisation de la science des données pour l'exploitation des réseaux d'opérateur. Ces résultats ont aussi fait l'objet de plusieurs utilisations par des projets connexes
The evolution of telecommunications has led today to a proliferation of connected devices and a massification of multimedia services. Faced with this increased demand for service, operators need to adapt the operation of their networks, in order to continue to guarantee a certain level of quality of experience to their users. To do this, operator networks tend towards a more cognitive or autonomic functioning. It is about giving the networks the means to exploit all the information or data at their disposal, helping them to make the best decisions about their services and operations,and even self-manage. It is therefore a questionof introducing artificial intelligence into networks. This requires setting up means to exploit the data, to carry out on them the automatic learning of generalizable models, providing information that can optimize decisions. All these means today constitute a scientific discipline called data science. This thesis fits into a global desire to show the interest of the introduction of data science in different network operating processes. It inlcudes two algorithmic contributions corresponding to use cases of data science for the operator networks, and two software contributions, aiming to facilitate,on the one hand, the analysis, and on the other hand the deployment of the algorithms produced through data science. The conclusive results of these various studies have demonstrated the interest and the feasibility of using data science for the exploitation of operator networks. These results have also been used by related projects
43

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2337/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires
Diagnostic reasoning (abductive) and predictive reasoning (inductive) are two methods of reasoning that enable the discovery of new knowledge. When abductive reasoning is the process of finding the best explanation (hypothesis) for a set of observations (Josephson, 1994), the inductive reasoning is the process of predicting, from a set of observations, to find all possible results. These observations may be symptoms of a patient, experiments on genomic and metabolic networks, etc. In this PhD thesis, we are interested in the representation, analysis and synthesis of genomic signaling networks using hypothetical logic. In fact, this thesis focuses on modeling of signaling pathways in response to the DNA double stranded break. To implement the abduction, we use algorithms of production. Then, the default logic is used to build models of minimum representation. These algorithms are proven knowledge discovery on the map of DNA double-strand break. This map is minimal as biological causality graph and allows integrating bio-molecular data
44

Pochet, Juliette. "Evaluation de performance d’une ligne ferroviaire suburbaine partiellement équipée d’un automatisme CBTC." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En zone dense, la croissance actuelle du trafic sur les lignes ferroviaires suburbaines conduit les exploitants à déployer des systèmes de contrôle-commande avancés des trains, tels que les systèmes dits « CBTC » (Communication Based Train Control) jusque-là réservés aux systèmes de métro. Les systèmes CBTC mettent en œuvre un pilotage automatique des trains et permettent une amélioration significative des performances. Par ailleurs, ils peuvent inclure un module de supervision de la ligne en charge de réguler la marche des trains en cas d’aléa, améliorant ainsi la robustesse du trafic. Face au problème de régulation, la recherche opérationnelle a produit un certain nombre de méthodes permettant de répondre efficacement aux perturbations, d’une part dans le secteur métro et d’autre part dans le secteur ferroviaire lourd. En tirant profit de l’état de l’art et des avancées faites dans les deux secteurs, les travaux présentés dans ce manuscrit cherchent à contribuer à l’adaptation des fonctions de régulation des systèmes CBTC pour l’exploitation de lignes ferroviaires suburbaines. L’approche du problème débute par la construction de l’architecture fonctionnelle d’un module de supervision pour un système CBTC standard. Nous proposons ensuite une méthode de régulation basée sur une stratégie de commande prédictive et sur une optimisation multi-objectif des consignes des trains automatiques. Afin d’être en mesure d’évaluer précisément les performances d’une ligne ferroviaire suburbaine équipée d’un automatisme CBTC, il est nécessaire de s’équiper d’un outil de simulation microscopique adapté. Nous présentons dans ce manuscrit l’outil SNCF nommé SIMONE qui permet une simulation réaliste du point de vue fonctionnel et dynamique d’un système ferroviaire incluant un système CBTC. Les objectifs des travaux de thèse nous ont naturellement conduits à prendre part, avec l’équipe SNCF, à la spécification, à la conception et à l’implémentation de cet outil. Finalement, grâce à l’outil SIMONE, nous avons pu tester la méthode de régulation proposée sur des scénarios impliquant des perturbations. Afin d’évaluer la qualité des solutions, la méthode multi-objectif proposée a été comparée à une méthode de régulation individuelle basée sur une heuristique simple. La méthode de régulation multi-objectif propose de bonnes solutions au problème, dans la majorité des cas plus satisfaisantes que celles proposées par la régulation individuelle, et avec un temps de calcul jugé acceptable. Le manuscrit se termine par des perspectives de recherche intéressantes
In high-density area, the demand for railway transportation is continuously increasing. Operating companies turn to new intelligent signaling and control systems, such as Communication Based Train Control (CBTC) systems previously deployed on underground systems only. CBTC systems operate trains in automatic pilot and lead to increase the line capacity without expensive modification of infrastructures. They can also include a supervision module in charge of adapting train behavior according to operating objectives and to disturbances, increasing line robustness. In the literature of real-time traffic management, various methods have been proposed to supervise and reschedule trains, on the one hand for underground systems, on the other hand for railway systems. Making the most of the state-of-the-art in both fields, the presented work intend to contribute to the design of supervision and rescheduling functions of CBTC systems operating suburban railway systems. Our approach starts by designing a supervision module for a standard CBTC system. Then, we propose a rescheduling method based on a model predictive control approach and a multi-objective optimization of automatic train commands. In order to evaluate the performances of a railway system, it is necessary to use a microscopic simulation tool including a CBTC model. In this thesis, we present the tool developed by SNCF and named SIMONE. It allows realistic simulation of a railway system and a CBTC system, in terms of functional architecture and dynamics. The presented work has been directly involved in the design and implementation of the tool. Eventually, the proposed rescheduling method was tested with the tool SIMONE on disturbed scenarios. The proposed method was compared to a simple heuristic strategy intending to recover delays. The proposed multi-objective method is able to provide good solutions to the rescheduling problem and over-performs the simple strategy in most cases, with an acceptable process time. We conclude with interesting perspectives for future work
45

Aouini, Marwen. "Système intelligent utilisant les ondes ultrasonores guidées et le forage de données en vue de la maintenance prédictive." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0228.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A l’ère de l’industrie 4.0, la maintenance prédictive d’une part et les objets-connectés d’une autre part ne cessent de gagner du terrain. Ladite maintenance n’exploite pas ou peu la surveillance de l’intégrité des structures (connue plus par SHM, l’acronyme de son appellation anglaise) par notamment les ondes ultrasonores guidées (OUG). L’objectif final de la thèse est de développer un outil permettant de renforcer ce type de maintenance. Le SHM est une approche émergente qui permet d’assurer un contrôle en continue de la santé structurelle. Elle se fait généralement en trois étapes principales : acquisition de données, détection et localisation de défaut (diagnostic) et estimation de la durée de vie résiduelle de la structure (pronostic). La première étape requiert l’utilisation des systèmes de contrôle non destructif tels que les OUG dans la présente thèse. Cependant, ces systèmes ont été destinés à réaliser du contrôle ponctuel et nécessite l’intervention d’un personnel qualifié. Dans ce travail de thèse, un système de génération et d’acquisition de données d’OUG, permettant entre-autres de connecter la structure à surveiller à un réseau cellulaire, a été développé. Ceci permet la construction de bases de données (pouvant être hétérogènes) d’une façon automatique et à bas coût. En outre, une attention particulière a été accordée à l’optimisation de son alimentation électrique afin de garantir le plus d’autonomie possible. La deuxième étape consiste à exploiter ces données afin de détecter la présence éventuelle de défaut et de le localiser. Trois approches ont été proposées en fonction notamment de la puissance de calcul nécessaire et du degrés de non-stationnarité de ces données (i.e. dues à l’instabilité de l’environnement de la structure et dudit système de mesure). Les trois approches reposent sur la technique de détection de nouveauté. Dans le cas où un défaut est détecté, les algorithmes de prédiction de l’évolution de celui-ci dans le temps peuvent être utilisés afin d’estimer la durée de vie résiduelle de la structure ce qui constitue la dernière étape de surveillance. Ici, une méthodologie basée sur un algorithme hybride, utilisant la technique de décomposition en modes empirique et un modèle autorégressif intégré à moyenne mobile, a été développée. Les résultats obtenus sur des structures placées en laboratoire et in-situ montre la pertinence de la méthodologie de surveillance proposée. D’autres travaux complémentaires sont néanmoins nécessaires afin d’améliorer la maturation technologique du système développé
In the Industry 4.0 era, predictive maintenance and internet-of-things are gaining ground. This kind of maintenance does not include yet structural health monitoring (SHM) by guided ultrasonic waves (UGW) in particular. The final objective of the thesis is to develop a tool to enhance this type of maintenance. SHM is an emerging approach that allows continuous monitoring of the structural health of a given structure. It is generally done in three main steps: data acquisition, defect detection and localization (diagnosis) and estimation of the residual life (prognosis). The first step requires the use of non-destructive testing systems such as that of UGW in this thesis. However, these systems were designed to perform spot checks and require the intervention of qualified operators. In this thesis, a system of generation and acquisition of UGW data, allowing among other things to connect the structure to be monitored to a cellular network, has been developed. This allows the construction of databases (which can be heterogeneous) in an automatic and low-cost way. Moreover, a particular attention was paid to the optimization of its power supply to guarantee the most autonomy possible. The second step consists in exploiting these data in order to detect the defect and to localize it. Three approaches have been proposed, depending on the required computing power and the degree of non-stationarity of the data (i.e. due to the instability of the environment of the structure and of the said measurement system). All three approaches are based on the novelty detection technique. In the case where a defect is detected, prediction algorithms of its evolution in time can be used to estimate the residual life of the structure, which is the last monitoring step. Here, a methodology based on a hybrid algorithm, using the empirical mode decomposition technique and an integrated moving average autoregressive model, has been developed. The results obtained on laboratory and in-situ structures show the relevance of the proposed monitoring methodology. Nevertheless, further work is needed to improve the technological maturation of the developed system
46

Hofleitner, Aude. "Développement d'un modèle d'estimation des variables de trafic urbain basé sur l'utilisation des technologies de géolocalisation." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00798239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à l'augmentation de la mobilité, les politiques de développement durable cherchent à optimiser l'utilisation des infrastructures de transport existantes. En particulier, les systèmes d'information du trafic à large échelle ont le potentiel d'optimiser l'utilisation du réseau de transport. Ils doivent fournir aux usagers une information fiable en temps réel leur permettant d'optimiser leurs choix d'itinéraires. Ils peuvent également servir d'outils d'aide à la décision pour les gestionnaires du réseau. La thèse étudie comment l'émergence des services Internet sur les téléphones portables et la rapide prolifération des systèmes de géolocalisation permet le développement de nouveaux services d'estimation et d'information des conditions de trafic en réseau urbain. L'utilisation des données provenant de véhicules traceurs nécessite le développement de modèles et d'algorithmes spécifiques, afin d'extraire l'information de ces données qui ne sont envoyées, jusqu'à présent, que par une faible proportion des véhicules circulant sur le réseau et avec une fréquence faible. La variabilité des conditions de circulations, due à la présence de feux de signalisation, motive une approche statistique de la dynamique du trafic, tout en intégrant les principes physiques hydrodynamiques (formation et dissolution de files d'attentes horizontales). Ce modèle statistique permet d'intégrer de façon robuste les données bruitées envoyées par les véhicules traceurs, d'estimer les paramètres physiques caractérisant la dynamique du trafic et d'obtenir l'expression paramétrique de la loi de probabilité des temps de parcours entre deux points quelconques du réseau. La thèse s'appuie sur les données et les infrastructures développées par le projet Mobile Millennium à l'Université de Californie, Berkeley pour valider les modèles et algorithmes proposés. Les résultats soulignent l'importance du développement de modèles statistiques et d'algorithmes adaptés aux données disponibles pour développer un système opérationnel d'estimation du trafic à large échelle
47

Le, Tan. "Intégration de l'inférence abductive et inductive pour la représentation des connaissances dans les réseaux de gènes." Phd thesis, Université Paul Sabatier - Toulouse III, 2014. http://tel.archives-ouvertes.fr/tel-00996894.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le raisonnement diagnostique (abductif) et le raisonnement de prédiction (inductif) sont deux des méthodes de raisonnement qui permettent la découverte de connaissances nouvelles. Lorsque le raisonnement abductif est le processus permettant de trouver la meilleure explication (hypothèse) pour un ensemble d'observations (Josephson, 1994), le raisonnement de prédiction est le processus, à partir d'un ensemble d'observations, permettant de trouver tous les résultats possibles. Ces observations peuvent être les symptômes d'un patient, des expériences concernant les réseaux métaboliques et génomiques, etc. Dans cette thèse, nous nous sommes intéressés à la représentation, l'analyse et la synthèse des réseaux de signalisation génomique en utilisant la logique des hypothèses. En fait, ce mémoire se focalise sur la modélisation des voies de signalisation en réponse à la cassure double-brin de l'ADN. Pour implémenter l'abduction nous utilisons les algorithmes de production. Ensuite, la logique des défauts permet de construire des modèles de représentation minimale. Ces algorithmes de découvertes de connaissances sont prouvés sur la carte de cassure double brin de l'ADN. Cette carte est minimale en tant que graphe de causalité biologique et elle permet d'intégrer les données biomoléculaires.
48

Sahin, Serdar. "Advanced receivers for distributed cooperation in mobile ad hoc networks." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réseaux ad hoc mobiles (MANETs) sont des systèmes de communication sans fil rapidement déployables et qui fonctionnent avec une coordination minimale, ceci afin d'éviter les pertes d'efficacité spectrale induites par la signalisation. Les stratégies de transmissions coopératives présentent un intérêt pour les MANETs, mais la nature distribuée de tels protocoles peut augmenter le niveau d'interférence avec un impact autant plus sévère que l'on cherche à pousser les limites des efficacités énergétique et spectrale. L'impact de l'interférence doit alors être réduit par l'utilisation d'algorithmes de traitement du signal au niveau de la couche PHY, avec une complexité calculatoire raisonnable. Des avancées récentes sur les techniques de conception de récepteurs numériques itératifs proposent d'exploiter l'inférence bayésienne approximée et des techniques de passage de message associés afin d'améliorer le potentiel des turbo-détecteurs plus classiques. Entre autres, la propagation d'espérance (EP) est une technique flexible, qui offre des compromis attractifs de complexité et de performance dans des situations où la propagation de croyance conventionnel est limité par sa complexité calculatoire. Par ailleurs, grâce à des techniques émergentes de l'apprentissage profond, de telles structures itératives peuvent être projetés vers des réseaux de détection profonds, où l'apprentissage des hyper-paramètres algorithmiques améliore davantage les performances. Dans cette thèse nous proposons des égaliseurs à retour de décision à réponse impulsionnelle finie basée sur la propagation d'espérance (EP) qui apportent des améliorations significatives, en particulier pour des applications à haute efficacité spectrale vis à vis des turbo-détecteurs conventionnels, tout en ayant l'avantage d'être asymptotiquement prédictibles. Nous proposons un cadre générique pour la conception de récepteurs dans le domaine fréquentiel, afin d'obtenir des architectures de détection avec une faible complexité calculatoire. Cette approche est analysée théoriquement et numériquement, avec un accent mis sur l'égalisation des canaux sélectifs en fréquence, et avec des extensions pour de la détection dans des canaux qui varient dans le temps ou pour des systèmes multi-antennes. Nous explorons aussi la conception de détecteurs multi-utilisateurs, ainsi que l'impact de l'estimation du canal, afin de comprendre le potentiel et le limite de cette approche. Pour finir, nous proposons une méthode de prédiction performance à taille finie, afin de réaliser une abstraction de lien pour l'égaliseur domaine fréquentiel à base d'EP. L'impact d'un modélisation plus fine de la couche PHY est évalué dans le contexte de la diffusion coopérative pour des MANETs tactiques, grâce à un simulateur flexible de couche MAC
Mobile ad hoc networks (MANETs) are rapidly deployable wireless communications systems, operating with minimal coordination in order to avoid spectral efficiency losses caused by overhead. Cooperative transmission schemes are attractive for MANETs, but the distributed nature of such protocols comes with an increased level of interference, whose impact is further amplified by the need to push the limits of energy and spectral efficiency. Hence, the impact of interference has to be mitigated through with the use PHY layer signal processing algorithms with reasonable computational complexity. Recent advances in iterative digital receiver design techniques exploit approximate Bayesian inference and derivative message passing techniques to improve the capabilities of well-established turbo detectors. In particular, expectation propagation (EP) is a flexible technique which offers attractive complexity-performance trade-offs in situations where conventional belief propagation is limited by computational complexity. Moreover, thanks to emerging techniques in deep learning, such iterative structures are cast into deep detection networks, where learning the algorithmic hyper-parameters further improves receiver performance. In this thesis, EP-based finite-impulse response decision feedback equalizers are designed, and they achieve significant improvements, especially in high spectral efficiency applications, over more conventional turbo-equalization techniques, while having the advantage of being asymptotically predictable. A framework for designing frequency-domain EP-based receivers is proposed, in order to obtain detection architectures with low computational complexity. This framework is theoretically and numerically analysed with a focus on channel equalization, and then it is also extended to handle detection for time-varying channels and multiple-antenna systems. The design of multiple-user detectors and the impact of channel estimation are also explored to understand the capabilities and limits of this framework. Finally, a finite-length performance prediction method is presented for carrying out link abstraction for the EP-based frequency domain equalizer. The impact of accurate physical layer modelling is evaluated in the context of cooperative broadcasting in tactical MANETs, thanks to a flexible MAC-level simulator
49

Artero, Sylvaine. "Détection des troubles cognitifs légers (MCI) : algorithmes diagnostiques, dépistage et validité prédictive." Montpellier 1, 2004. http://www.theses.fr/2004MON1T004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le vieillissement de la population a provoque une augmentation de la prevalence des troubles cognitifs et de la demence. Ces troubles ont un impact important au niveau de la sante publique a cause de leur haute prevalence et du niveau eleve de pertes fonctionnelles qui les accompagnent. La question s'est posee de savoir si l'utilisation des anticholinesterasiques tres tot, a des etapes precliniques de la demence pouvait augmenter leur efficacite. Dans ce contexte, c'est le concept de mci (mild cognitive impairment : troubles cognitifs legers) qui est devenu le principal centre d'interet. L'algorithme du mci permet la detection chez les personnes agees de potentiels changements cognitifs pathologiques evoluant vers une demence, dans un contexte de plainte cognitive. Les objectifs de cette these etaient d'evaluer la validite de ce concept en population generale et de considerer le statut de ce concept en tant qu'entite nosologique. Mais egalement de suggerer des modifications aux criteres actuels afin d'ameliorer l'identification des sujets mci dans un contexte de medecine generale. Pour l'essentiel, notre travail montre que le concept de mci tel qu'il a ete defini par petersen et son equipe en 1999, pose un certain nombre de problemes. Ces auteurs supposent qu'un dysfonctionnement de la memoire, associe a un fonctionnement cognitif general normal et a des capacites conservees a effectuer les taches quotidiennes sont hautement predictifs d'une maladie neurodegenerative. Mais ce concept apparait a la fois heterogene et instable sur le plan evolutif. En pratique, il s'avere donc difficilement utilisable en population generale. Nous avons demontre qu'une amelioration des criteres nosologiques doit etre envisagee sur le plan neuropsychologique et psychocomportemental. Nous avons egalement souligne l'interet potentiel de l'imagerie cerebrale dans le cadre du mci en vue d'une amelioration du pouvoir predictif. A partir de nos resultats, nous avons pu proposer un nouvel algorithme ayant une forte valeur predictive pour la demence. Ce nouvel algorithme plus performant est applicable en epidemiologie et devrait permettre d'identifier les sujets a risque dans de futures etudes mais egalement dans un cadre de medecine generale afin de les orienter vers un service specialise de neurologie.
50

Boumerdassi, Selma. "Mécanismes prédictifs d'allocation de ressources dans les réseaux cellulaires." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux algorithmes de réservation de ressources ont été proposés pour les réseaux cellulaires. Cependant, ils ne tiennent pas compte des caractéristiques urbaines : dissymétrie du trafic, cellules de petite taille, présence de routes, de carrefours. Nos travaux portent sur des mécanismes permettant d'inclure ces critères pour améliorer les modèles classiques d'une part et proposer de nouvelles solutions d'autre part. Le modèle le plus simple (new algorithm for channel réservation), consiste -en fonction des taux d'arrivée des nouveaux appels et des probabilités de routage inter-cellulaires- à trouver un nombre optimal de canaux à réserver dans chacune des cellules. Un modèle dynamique est ensuite proposé (politique de réservation prédictive). Les réservations dans ce cas s'adaptent instantanément au nombre de mobiles dans les différentes cellules en fonction de la topologie locale. Ce mécanisme est également adapté aux réseaux cellulaires hiérarchiques. L'évaluation des différentes propositions est effectuée au travers de simulations à évènements discrets et de modèles analytiques approchés permettant un dimensionnement rapide et peu coûteux en temps de calcul. Notre souci est de proposer des solutions efficaces, stables et peu coûteuses en terme de signalisation. Les résultats montrent que les propositions énoncées sont très prometteuses et s'adapteraient facilement aux réseaux actuels et futurs

To the bibliography