Academic literature on the topic 'Algorithmes de prédiction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Algorithmes de prédiction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Algorithmes de prédiction":

1

Lazaro, Christophe. "Le pouvoir « divinatoire » des algorithmes." Anthropologie et Sociétés 42, no. 2-3 (October 5, 2018): 127–50. http://dx.doi.org/10.7202/1052640ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
À travers le développement spectaculaire de systèmes algorithmiques capables de collecter, d’analyser, de traiter des quantités massives de données, l’ère desBig datasemble avoir conféré à l’homme un nouvel outil de prédiction lui permettant d’optimiser les processus décisionnels, d’anticiper les risques et de gouverner les conduites. Les applications, développées notamment dans le domaine de la sécurité, du marketing ou du divertissement, intégrant des algorithmes auto-apprenants, rendent désormais possibles la prédiction et surtout la préemption du futur. Dans cette contribution, nous souhaitons interroger le pouvoir prédictif des algorithmes, à la lumière des pratiques divinatoires de l’Antiquité gréco-latine. À cette fin, nous déployons un double questionnement, à la fois épistémologique et ontologique, en nous inspirant du traité de Cicéron sur la divination : que sont les algorithmes, et quelle est la singularité de leur logique corrélative ? Que nous font voir les algorithmes et quelles sont les nouvelles modalités de production du savoir qu’ils impliquent ?
2

HARINAIVO, A., H. HAUDUC, and I. TAKACS. "Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle." Techniques Sciences Méthodes 3 (March 20, 2023): 33–42. http://dx.doi.org/10.36904/202303033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
3

Beaudouin, Valérie, and Winston Maxwell. "La prédiction du risque en justice pénale aux états-unis : l’affaire propublica-compas." Réseaux N° 240, no. 4 (September 21, 2023): 71–109. http://dx.doi.org/10.3917/res.240.0071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un article publié par le média Pro Publica en 2016 considère que le logiciel Compas, utilisé aux États-Unis pour la prédiction de la récidive, porte préjudice à la population noire : « It’s biased against blacks ». La publication crée une onde de choc dans l’espace public et alimente les débats sur l’équité des algorithmes et sur le bien-fondé de ces outils de prédiction du risque. Ces débats étaient jusque-là confinés dans des sphères de spécialistes. En partant de l’affaire ProPublica-Compas, nous avons exploré les différents embranchements de la controverse dans l’arène des « data sciences » et dans celle du monde de la justice. Si, dans l’espace médiatique, l’affaire Compas illustre les dérives liées aux algorithmes et vient renforcer les inquiétudes autour de l’intelligence artificielle (peur du remplacement, du renforcement des inégalités et de l’opacité), dans le monde académique deux arènes s’emparent de l’affaire. Dans l’arène des data sciences, les chercheurs discutent des critères d’équité et de leur incompatibilité, montrant à quel point la traduction d’un principe moral en indicateurs statistiques est problématique. Ils débattent également de la supériorité supposée de la machine sur l’homme dans les tâches de prédiction. Dans l’arène de la justice pénale, espace beaucoup plus hétérogène, l’affaire ProPublica-Compas renforce la prise de conscience qu’il est nécessaire de mieux évaluer les outils avant de les utiliser, de comprendre comment les juges s’approprient ces outils en contexte et amène les ONG qui défendent les prisonniers et les législateurs à changer de posture par rapport à ces outils de prédiction. Tandis que l’arène des data sciences fonctionne dans un entre-soi disciplinaire, focalisé sur les données et les algorithmes hors contexte, dans l’arène juridique, qui assemble des acteurs hétérogènes, la question de l’inscription des outils dans la pratique professionnelle occupe une place centrale.
4

Saccocio, Christèle, Guillaume Dumain, and Olivier Langeron. "Ventilation au masque et intubation difficiles chez l’adulte : de la prédiction à la décision grâce aux algorithmes." Oxymag 34, no. 177 (March 2021): 8–15. http://dx.doi.org/10.1016/j.oxy.2021.03.003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bourkhime, H., N. Qarmiche, N. Bahra, M. Omari, M. Berraho, N. Tachfouti, S. El Fakir, and N. Otmani. "P36 - La prédiction de la dépression chez les Marocains atteints de maladies respiratoires chroniques - Analyse comparative des algorithmes d'apprentissage automatique." Journal of Epidemiology and Population Health 72 (May 2024): 202476. http://dx.doi.org/10.1016/j.jeph.2024.202476.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

De Oliveira, H., M. Prodel, and A. Vainchtock. "Prédiction du coût hospitalier annuel pour des patients vivant avec le VIH : comparaison de 10 algorithmes de « Machine Learning » sur une cohorte identifiée dans les données PMSI." Revue d'Épidémiologie et de Santé Publique 66 (March 2018): S27. http://dx.doi.org/10.1016/j.respe.2018.01.057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

K, Ravikiran, P. Gopala Krishna, N. Rajashekhar, K. Sandeep, Y. Saeed Hazim, Uma Reddy, Rajeev Sobti, and Ashwani Kumar. "Short-term rainfall prédiction using prédictive analytics: A case study in Telangana." E3S Web of Conferences 507 (2024): 01072. http://dx.doi.org/10.1051/e3sconf/202450701072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Rainfall forecasting is critical because heavy rains can bring a full of tragedies. This prediction aids people in requiring preventive steps, and it should be correct. There are two types of rainfall forecasting: short-term forecasting and long-term forecasting. Predictions are typically correct for short-term, but creating a model for future rainfall prediction is the most difficult task. Because it is strongly tied to economy and human lives, heavy precipitation forecast could be a severe disadvantage for natural science departments. It’s the cause of natural disasters like floods and droughts that affect people all around the world every year. For countries like India, where agriculture is the primary source of income, the accuracy of rainfall estimates is critical. Regression may be used in the prediction of precipitation utilizing machine learning approaches. The goal of this work is to provide non-experts with easy access to the techniques and approaches used in the field of precipitation prediction, as well as a comparison of the various machine learning algorithms.
8

Cournoyer, A., V. Langlois-Carbonneau, R. Daoust, and J. Chauny. "LO29: Création dune règle de décision clinique pour le diagnostic dun syndrome aortique aigu avec les outils dintelligence artificielle : phase initiale de définition des attributs communs aux patients sans syndrome aortique aigu chez une population à risque." CJEM 20, S1 (May 2018): S16—S17. http://dx.doi.org/10.1017/cem.2018.91.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction: Les outils de prédiction disponibles (score clinique, ratio des neutrophiles sur lymphocytes et dosage des D-dimères) dans le diagnostic du syndrome aortique aigu (SAA) demeurent imparfaits. Dans ce contexte, avec lobjectif de développer une règle de décision clinique pour le diagnostic du SAA, la présente étude visait à définir un ensemble de variables discriminantes chez les patients souffrant ou non dun SAA en utilisant les outils dintelligence artificielle. Methods: À partir de lensemble des données cliniques disponibles chez les patients investigués pour douleur thoracique au département durgence avec une angiographie par tomodensitométrie (angioCT) visant à éliminer un SAA entre 2008 et 2014, un programme dapprentissage a été chargé de construire un arbre de décision (Clustering And Regression Tree) identifiant les patients ne souffrant pas dun SAA. La variable dintérêt était labsence de SAA et 23 attributs ont été testés. Le diagnostic de SAA était établi avec les résultats de langioCT. Des échantillons aléatoires de 70% de la population étudiée ont été testés de façon récursive (maximum de 100 itérations) pour construire larbre de décision. Six algorithmes dapprentissage (Reg Tree, LR, KNN, Naive B, Random Forest et CN2) ont été comparés et loptimisation du gain dinformation a été mesurée par les techniques de Gain Ratio et de Gini. Results: Un total de 198 patients (99 hommes et 99 femmes) dun âge moyen de 63 ans (±16) ont été inclus dans létude, parmi lesquels 26 (13%) souffraient dun SAA. Trois attributs ou regroupements dattributs ont permis de construire un arbre de décision permettant didentifier 114 patients sur 198 (57,6%) ayant une très faible probabilité de SAA (sensibilité visée de 100%). La sensibilité et spécificité de larbre de décision clinique était respectivement de 100% (intervalle de confiance [IC] 95% 86,7-100,0) et 70,4% (IC 95% 62,7-77,3). Les attributs en question étaient labsence de tout facteur de risque (e.g. syndrome de Marfan, chirurgie aortique ou valvulaire, histoire familiale), les signes vitaux (tension artérielle systolique, pouls et choc index) et les D-dimères. Le seuil de D-dimères utilisé pouvait varier entre 1114 et 1211 mcg/L selon lhémodynamie et la présence de facteur de risque. Les attributs suivants nétaient pas discriminants : le sexe, un antécédent de diabète, dhypertension artérielle ou de dyslipidémie, le tabagisme, avoir un déficit de perfusion, une différence de tension artérielle entre les deux bras ou un souffle dinsuffisance aortique et la formule sanguine. Conclusion: Les attributs les plus discriminants pour le SAA sont les facteurs à risque, lhémodynamie et les D-dimères. Une étude prospective multicentrique devrait être réalisé afin de développer une règle de décision clinique afin didentifier les patients à très bas risque de SAA à partir de ces attributs.
9

Im, Virginie, and Michel Briex. "Médecine prédictive, deep learning, algorithmes et accouchement." Spirale N°93, no. 1 (2020): 204. http://dx.doi.org/10.3917/spi.093.0204.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Phillips, Susan P., Sheryl Spithoff, and Amber Simpson. "L’intelligence artificielle et les algorithmes prédictifs en médecine." Canadian Family Physician 68, no. 8 (August 2022): e230-e233. http://dx.doi.org/10.46747/cfp.6808e230.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Algorithmes de prédiction":

1

Vekemans, Denis. "Algorithmes pour méthodes de prédiction." Lille 1, 1995. http://www.theses.fr/1995LIL10176.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Supposant connaître quelques termes d'une suite, nous définissons une méthode de prédiction comme étant un procédé capable de fournir une approximation des termes suivants. Nous utilisons des méthodes d'extrapolation, qui servent généralement à accélérer la convergence des suites, pour construire des méthodes de prédiction. Souvent, les méthodes de prédiction nécessitent la résolution d'un système linéaire (ou non linéaire). Mais, grâce aux algorithmes relatifs aux méthodes d'extrapolation, dans ce travail, nous les évitons. De plus, nous pouvons donner des résultats de consistance pour ces méthodes.
2

Engelen, Stéfan. "Algorithmes pour la prédiction de structures secondaires d'ARN." Evry-Val d'Essonne, 2006. http://www.theses.fr/2006EVRY0008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La connaissance de la structure secondaire des ARN est importante pour comprendre les relations entre structure et fonction des ARN. Elle est composée d'un ensemble d'hélices constituées de paires de bases complémentaires. Les algorithmes existants ont des complexités d'au moins O(n3). Cette thèse présente un algorithme, appelé P-DCfold, basé sur l'approche comparative pour la prédiction de structures secondaires des ARN avec une complexité en O(n2). Les hélices y sont recherchées récursivement en utilisant l'approche "diviser pour régner". La sélection des hélices est basée sur des critères thermodynamiques et de covariation. Le problème principal de l'approche comparative est la mauvaise qualité des alignements utilisés. P-DCfold utilise donc des modèles d'évolution sous contraintes de structure pour sélectionner les séquences correctement alignées. P-DCfold a prédit la structure secondaire de quelques ARN avec une sensibilité de 0,85 et une sélectivité de 0,95
The knowledge of RNA secondary structure is important to understand the relation between structure and function of the RNA. It is made up of a set of helices resulting from the folding of succession of a complementary base pairs. Complexities of existing algorithms is at least of O(n3). This thesis presents an algorithm, called P-DCFold, based on the comparative approach, for the prediction of RNA secondary structures with a complexity of O(n2). In this algorithm, helices are searched recursively using the "divide and conquer" approach. The selection of helices is based on thermodynamic and covariation criteria. The main problem of the comparative approach is the low quality of used alignment. So, P-DCfold use evolutionary models under structure constraints to select correctly aligned sequences. P-DCFold predicts the secondary structure of several RNA with a sensitivity of 0,85 and a sensibility of 0,95
3

Becquey, Louis. "Algorithmes multi-critères pour la prédiction de structures d'ARN." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes informatiques de prédiction des structures d'ARN reposent sur deux étapes algorithmiques : proposer des structures (l'échantillonnage), et les trier par pertinence (l'évaluation). Une grande diversité de méthodes d'évaluation existe. Certaines reposent sur des modèles physiques, d'autres sur la similarité à des données déjà observées. Cette thèse propose des méthodes de prédiction de structure combinant deux ou plusieurs critères de tri des solutions, divers d'un point de vue de l'échelle de modélisation (structure secondaire, tertiaire), et du type (theory-based, data-based, compatibilité avec des données expérimentales de sondage chimique). Les méthodes proposées identifient le front de Pareto du problème d'optimisation multiobjectif formé par ces critères. Ceci permet d'identifier des solutions (structures) bien notées selon tous les modèles, et également d'étudier la corrélation entre critères. Les approches présentées exploitent les dernières avancées, comme l'identification de modules ou de réseaux d'interactions récurrents, ainsi que les algorithmes d'apprentissage profond. Deux architectures de réseaux de neurones (un RNN et un CNN) sont adaptées des protéines à l'ARN. Un jeu de données d'ARN est proposé pour entrainer ces réseaux : RNANet. Deux outils logiciels sont proposés : BiORSEO, qui prédit la structure secondaire des ARN sur la base de deux critères (l'un énergétique, l'autre relatif à la présence de modules connus). MOARNA, qui propose des structures 3D gros grains sur la base de 4 critères : l'énergie de la structure secondaire, l'énergie en 3D, la compatibilité avec des données expérimentales de sondage chimique, ou la forme d'une famille connue d'ARN si une famille est identifiée
Computational RNA structure prediction methods rely on two major algorithmic steps : a sampling step, to propose new structure solutions, and a scoring step to sort the solutions by relevance. A wide diversity of scoring methods exists. Some rely on physical models, some on the similarity to already observed data (so-called data based methods, or knowledge based methods). This thesis proposes structure prediction methods combining two or more scoring criterions, diverse regarding the modelling scale (secondary structure, tertiary structure), their type (theory-based, knowledge-based, compatibility with experimental chemical probing results). The methods describe the Pareto front of the multi-objective optimization problem formed by these criteria. This allows to identify solutions (structures) well scored on each criterion, and to study the correlation between criterions. The presented approaches exploit the latest progresses in the field, like the identification of modules or recurrent interaction networks, and the use of deep learning algorithms. Two neural network architectures (a RNN and a CNN) are adapted from proteins to RNA. A dataset is created to train these networks: RNANet. Two software tools are proposed: the first is called BiORSEO, which predicts the secondary structure based on two criterions (one relative to the structure’s energy, the other relative to the presence of known modules). The second is MOARNA, which predicts coarse-grained 3D structures based on four criterions: energy in 2D and 3D, compatibility with experimental probing results, and with the shape of a known RNA family if one has been identified
4

Saffarian, Azadeh. "Algorithmes de prédiction et de recherche de multi-structures d'ARN." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00832700.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ARN (acide ribonucléique) est une molécule ubiquitaire qui joue plusieurs rôles fondamentaux au sein de la cellule: synthèse des protéines avec les ARN messagers, activité catalytique ou implicationdans la régulation, les ARN non-codants. Les nouvelles technologies de séquençage à haut-débit permettent de produire des milliards de séquences à moindre coût, posant de manière cruciale la question de l'analyse de ces données. L'objectif de cette thèse est de définir de nouvelles méthodes computationnelles pour aider à l'analyse de ces séquences dans le cas des ARN non-codants. Dans cette perspective, la "structure secondaire" d'un ARN, formée par l'ensemble des appariements entrebases, délivre des informations utiles pour étudier la fonction de l'ARN. Notre travail se concentre plus particulièrement sur l'ensemble des structures potentielles que peut adopter une séquence d'ARN donnée, ensemble que nous appelons "multi-structure". Nous apportons deux contributions: un algorithme pour générer systématiquement toutes les structures localement optimales composantune multi-structure, et un algorithme basé sur la recherche d'unemulti-structure pour identifier un ARN non-codant dans une séquence génomique. Ces résultats ont été mis en oeuvre dans deux logiciels, Alterna et Regliss, appliqués avec succès à des ensembles de test.
5

Bedrat, Amina. "G4-Hunter : un nouvel algorithme pour la prédiction des G-quadruplexes." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0197/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des séquences compatibles avec la formation de G4 sont présentes au niveau de certaines régions clés du génome telles que les extrémités des chromosomes, mais également les régions de commutation de classe des immunoglobulines, les promoteurs de certains gènes dont des oncogènes et des séquences transcrites. Plus de 370 000 cibles potentielles ont été prédites lors des analyses bioinformatiques du génome humain. Cependant, ces prédictions ne sont pas exhaustives étant limitées par la formulation des algorithmes de prédiction utilisés. En effet, les séquences recherchées suivent la formule consensus suivante G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+. Ainsi, en apportant plus de souplesse dans la description du quadruplex nous pourrons identifier et localiser plus de cibles potentielles. C’est pourquoi, nous proposons un nouvel algorithme G4-Hunter qui permettra l’identification la plus exhaustive possible de séquences cibles en prenant en compte la totalité de la région et non plus uniquement la cible potentielle. Par ailleurs, une étude expérimentale à grande échelle (sur une centaine de séquences cibles) a été menée afin de valider et tester la robustesse de G4-Hunter. A l’aide de ce nouvel outil, nous avons pu identifier de nouvelles séquences cibles non identifiées par les approches déjà existantes au sein des génomes humain, HIV et Dictyostelium discoideum
Biologically relevant G4 DNA structures are formed throughout the genome including immunoglobulin switch regions, promoter sequences and telomeric repeats. They can arise when single-stranded G-rich DNA or RNA sequences are exposed during replication, transcription or recombination. Computational analysis using predictive algorithms suggests that the human genome contains approximately 370 000 potential G4-forming sequences. These predictions are generally limited to the standard G3+N(1−7)G3+N(1−7)G3+N(1−7)G3+ description. However, many stable G4s defy this description and escape this consensus; this is the reason why broadening this description should allow the prediction of more G4 loci. We propose an objective score function, G4- hunter, which predicts G4 folding propensity from a linear nucleic acid sequence. The new method focus on guanines clusters and GC asymmetry, taking into account the whole genomic region rather than individual quadruplexes sequences. In parallel with this computational technique, a large scale in vitro experimental work has also been developed to validate the performance of our algorithm in silico on one hundred of different sequences. G4- hunter exhibits unprecedented accuracy and sensitivity and leads us to reevaluate significantly the number of G4-prone sequences in the human genome. G4-hunter also allowed us to predict potential G4 sequences in HIV and Dictyostelium discoideum, which could not be identified by previous computational methods
6

Bourquard, Thomas. "Exploitation des algorithmes génétiques pour la prédiction de structures protéine-protéine." Paris 11, 2009. http://www.theses.fr/2009PA112302.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fonctions de la majorité des protéines sont surbordonnées à l’interaction avec un ou plusieurs partenaires : acide nucléiques, autres protéines,… La plupart de ces interactions sont transitoires, difficiles à détecter expérimentalement et leur structures sont souvent impossible à obtenir. C’est pourquoi la prédiction in silico de l’existence des ces interactions et la structure du complexe résultant ont été l’objet de nombreuses études depuis plus d’une décennie maintenant. Pour autant les protéines sont des objets complexes et les méthodes informatiques classiques sont trop « gourmandes » en temps pour l’exploration à grande échelle de l’interactome des différents organismes. Dans ce contexte de développement d’une méthode de docking protéine-protéine haut débit nous présenterons ici l’implémentation d’une nouvelle méthode d’amarrage, celle-ci est basée sur : L’utilisation de deux types de formalismes : les tessellations de Voronoï et Laguerre permettant la manipulation de modèles géométriques simplifiés permettant une bonne modélisation des complexes et des temps de calcul plus raisonnable qu’en représentation atomique. L’utilisation et l’optimisation d’algorithmes d’apprentissage (algorithmes génétiques) permettant d’isoler les conformations les plus pertinentes entre deux partenaires protéiques. Une méthode d’évaluation basée le clustering de méta-attributs calculés au niveau de l’interface permettant de trier au mieux ce sous-ensemble de conformations candidates
Most proteins fulfill their functions through the interaction with one or many partners as nucleic acids, other proteins…. Because most of these interactions are transitory, they are difficult to detect experimentally and obtaining the structure of the complex is generally not possible. Consequently, “in silico prediction” of the existence of these interactions and of the structure of the resulting complex has received a lot of attention in the last decade. However, proteins are very complex objects, and classical computing approaches have lead to computer-time consuming methods, whose accuracy is not sufficient for large scale exploration of the so-called “interactome” of different organisms. In this context development of high-throughput prediction methods for protein-protein docking is needed. We present here the implementation of a new method based on : Two types of formalisms : the Vornonoi and Laguerre tessellations, two simplified geometric models for coarse-grained modeling of complexes. This leads to computation time more reasonable than in atomic representation, the use and optimization of learning algorithms (genetic algorithms) to isolate the most relevant conformation between two two protein parteners, an evaluation method based on clustering of meta-attributes calculated at the interface to sort the best subset of candidate conformations
7

Voland, Mathieu. "Algorithmes pour la prédiction in silico d'interactions par similarité entre macromolécules biologiques." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV014/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un médicament, ou tout autre petite molécule biologique, agit sur l’organisme via des interactions chimiques qui se produisent avec d’autres macromolécules telles que les protéines qui régissent le fonctionnement des cellules. La détermination de l’ensemble des cibles, c’est à dire de l’ensemble des macromolécules susceptibles de lier une même molécule, est essentielle pour mieux comprendre les mécanismes moléculaires à l’origine des effets d’un médicament. Cette connaissance permettrait en effet de guider la conception d’un composé pour éviter au mieux les effets secondaires indésirables, ou au contraire découvrir de nouvelles applications à des molécules connues. Les avancées de la biologie structurale nous permettent maintenant d’avoir accès à un très grand nombre de structures tridimensionnelles de protéines impliquées dans ces interactions, ce qui motive l’utilisation d’outils in silico (informatique) pour complémenter ou guider les expériences in vitro ou in vivo plus longues et plus chères.La thèse s’inscrit dans le cadre d’une collaboration entre le laboratoire DAVID de l’Université de Versailles-Saint-Quentin, et l’entreprise Bionext SA qui propose une suite logicielle permettant de visualiser et d’étudier les interactions chimiques. Les travaux de recherches ont pour objectif de développer un algorithme permettant, à partir des données structurales des protéines, de déterminer des cibles potentielles pour un composé donné. L’approche choisie consiste à utiliser la connaissance d’une première interaction entre un composé et une protéine afin de rechercher par similarité d’autres protéines pour lesquelles on peut inférer la capacité à se lier avec le même composé. Il s’agit plus précisément de rechercher une similarité locale entre un motif donné, qui est la région permettant à la cible connue de lier le composé, et un ensemble de protéines candidates.Un algorithme a été développé, BioBind, qui utilise un modèle des surfaces des macromolécules issu de la théorie des formes alpha afin de modéliser la surface accessible ainsi qu’une topologie sur cette surface permettant la définition de régions en surface. Afin de traiter le problème de la recherche d’un motif en surface, une heuristique est utilisée consistant à définir des motifs réguliers qui sont une approximation de disques géodésiques et permettant un échantillonnage exhaustif à la surface des macromolécules. Ces régions circulaires sont alors étendues à l’ensemble du motif recherché afin de déterminer une mesure de similarité.Le problème de la prédiction de cibles est ramené à un problème de classification binaire, où il s’agit pour un ensemble de protéines données de déterminer lesquelles sont susceptibles d’interagir avec le composé considéré, par similarité avec la première cible connue. Cette formalisation permet d’étudier les performances de notre approche, ainsi que de la comparer avec d’autres approches sur différents jeux de données. Nous utilisons pour cela deux jeux de données issus de la littérature ainsi qu’un troisième développé spécifiquement pour cette problématique afin d’être plus représentatif des molécules pertinentes du point de vue pharmacologique, c’est-à-dire ayant des propriétés proches des médicaments. Notre approche se compare favorablement sur ces trois jeux de données par rapport à une autre approche de prédiction par similarité, et plus généralement notre analyse confirme que les approches par docking (amarrage) sont moins performantes que les approches par similarité pour le problème de la prédiction de cibles
The action of a drug, or another small biomolecule, is induced by chemical interactions with other macromolecules such as proteins regulating the cell functions. The determination of the set of targets, the macromolecules that could bind the same small molecule, is essential in order to understand molecular mechanisms responsible for the effects of a drug. Indeed, this knowledge could help the drug design process so as to avoid side effects or to find new applications for known drugs. The advances of structural biology provides us with three-dimensional representations of many proteins involved in these interactions, motivating the use of in silico tools to complement or guide further in vitro or in vivo experiments which are both more expansive and time consuming.This research is conducted as part of a collaboration between the DAVID laboratory of the Versailles-Saint-Quentin University, and Bionext SA which offers a software suite to visualize and analyze chemical interactions between biological molecules. The objective is to design an algorithm to predict these interactions for a given compound, using the structures of potential targets. More precisely, starting from a known interaction between a drug and a protein, a new interaction can be inferred with another sufficiently similar protein. This approach consists in the search of a given pattern, the known binding site, across a collection of macromolecules.An algorithm was implemented, BioBind, which rely on a topological representation of the surface of the macromolecules based on the alpha shapes theory. Our surface representation allows to define a concept of region of any shape on the surface. In order to tackle the search of a given pattern region, a heuristic has been developed, consisting in the definition of regular region which is an approximation of a geodesic disk. This circular shape allows for an exhaustive sampling and fast comparison, and any circular region can then be extended to the actual pattern to provide a similarity evaluation with the query binding site.The target prediction problem is formalized as a binary classification problem, where a set of macromolecules is being separated between those predicted to interact and the others, based on their local similarity with the known target. With this point of view, classic metrics can be used to assess performance, and compare our approach with others. Three datasets were used, two of which were extracted from the literature and the other one was designed specifically for our problem emphasizing the pharmacological relevance of the chosen molecules. Our algorithm proves to be more efficient than another state-of-the-art similarity based approach, and our analysis confirms that docking software are not relevant for our target prediction problem when a first target is known, according to our metric
8

Dieng, Ibnou. "Prédiction de l'interaction génotype x environnement par linéarisation et régression PLS-mixte." Montpellier 2, 2007. http://www.theses.fr/2007MON20019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Sànchez, Velazquez Jesús Antonio. "Prédiction et évaluation de performance des algorithmes adaptatifs implantés sur machines parallèles." Paris, ENST, 1993. http://www.theses.fr/1993ENST0021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous analysons dans ce travail de these le processus d'implantation sur des machines mimd a passage de messages d'une classe importante d'algorithmes en traitement du signal: les algorithmes adaptatifs. Ce processus est long et couteux, raison pour laquelle on essaie de predire la performance des implantations avant de les programmer. Nous introduisons un modele du comportement temporel des implantations utilisant un faible nombre de parametres pour representer l'algorithme et l'architecture cible. Ensuite, nous definissons la machine ideale m#0 nous permettant d'atteindre une periode d'iteration minimale. Nous demontrons que cette periode d'iteration peut etre atteinte par une implantation reelle m#2 ayant un faible nombre de processeurs et prenant en compte les durees des communications. Nous avons developpe des algorithmes heuristiques permettant de trouver m#2 et de prendre en compte des restrictions materielles pour trouver des implantations performantes de plusieurs algorithmes adaptatifs classiques (lms, rls, ftf, felms, rlsl). Finalement, on presente un ensemble d'outils developpes pour aider au processus d'implantation sur des machines paralleles, nous permettent de predire les bornes de performance des implantations, de suggerer des configurations materielles et logicielles, et de simuler le fonctionnement temporel des implantations pour evaluer leur performance
10

Suter, Frédéric. "Parallélisme mixte et prédiction de performances sur réseaux hétérogènes de machines parallèles." Lyon, École normale supérieure (sciences), 2002. http://www.theses.fr/2002ENSL0233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
"Avec la généralisation de l'Internet, il est désormais possible pour les utilisateurs de calcul numérique d'accéder aux machines les plus puissantes disponibles de par le monde et ce depuis leur station de travail. A grande échelle, ce type d'accès distant est appelé "metacomputing". Les travaux effectués au cours de cette thèsze ont tout d'abord concerné la parallélisation du logiciel SCILAB, en suivant, entre autres, une aproche basée sur des serveurs de calcul. Au cours de ces dévéloppements, les lacunes des environnements de ce type ont été exhibées, notamment le problème de goulot d'étranglement posé par la présence d'un agent centralisé. Afin de pallier ce problème, et donc de proposer un environnement extensible, nous avons suivi une approche hiérarchique pour développer le logiciel DIET (Distributed Interactive Engineering Toolbox). Un des points cruciaux des environnements de ce type concerne la capacité à estimer le temps d'exécution d'une routine sur machine donnée et les coûts de transfert des données depuis un client ou un serveur vers le serveur choisi pour la résolutions. La bibliothèque FAST (Fast Agent's System Timer), que nous avons étendue afin de gérer les routines parallèles, permet d'acquérir ce type d'informations. D'un point de vue algorithmique, nous avons mené une étude à la fois théorique et expérimentale du parallélisme mixte, i. E. , l'exploitation simultanée des parallélismes de tâches et données. Après avoir appliqué ce paradigme aux algorithmes rapides de produit de matrices de Strassen et Winograd, nous avons proposé un algorithme d'ordonnancement en parallélisme mixte dans le cas où les données ne peuvent pas être dupliquées. Cet algorithme effectue simultanément le placement et l'ordonnancement des tâches d'un graphe en se basant sur les modèles de coûts fournis par notre extension de FAST et sur un ensemble de distributions possibles. "

Book chapters on the topic "Algorithmes de prédiction":

1

Benbouzid, Bilel. "La régulation juridique de la police prédictive : règles, principes et calculs." In Algorithmes et décisions publiques, 103–24. CNRS Éditions, 2019. http://dx.doi.org/10.4000/books.editionscnrs.46192.

Full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography