Academic literature on the topic 'Précision de prédiction'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Précision de prédiction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Précision de prédiction"

1

DABILGOU, Téré, Oumar SANOGO, S. Augustin Zongo, Tizane Daho, Belkacem Zeghmati, Jean KOULIDIATI, and Antoine BERE. "Modélisation thermodynamique de combustion mono-zone de biodiesels dans un moteur diesel et estimation théorique des émissions potentielles." Journal de Physique de la SOAPHYS 2, no. 1a (February 13, 2021): C20A10–1—C20A10–10. http://dx.doi.org/10.46411/jpsoaphys.2020.01.10.

Full text
Abstract:
Dans le présent travail, un modèle thermodynamique de combustion à zone unique pour le carburant diesel et le biodiesel a été mis en oeuvre pour prédire la pression du cylindre afin de mieux comprendre la combustion caractéristique des différents carburants testés dans un moteur diesel et d’analyser les performances caractéristiques d'un même moteur fonctionnant avec différents types de carburants. Il s’est agi également d’évaluer les émissions potentielles de ces carburants lors de leurs combustions dans le moteur diesel. L'évaluation du modèle est faite en fonction de la complexité temporelle, de la complexité spatiale et de la précision de la prédiction à l'aide du programme informatique développé sous MATLAB. Les résultats du présent modèle montrent que les évolutions de la pression du cylindre ainsi que la température du cylindre ont été reproduites avec une bonne précision. En outre, la comparaison entre les paramètres de performance simulés et expérimentaux du moteur a montré une bonne concordance. Les resultatas montrent également des réductions des émissions polluantes avec l’utilisation des carburants alternatifs comparés au diesel.
APA, Harvard, Vancouver, ISO, and other styles
2

Barrier-Battut, Isabelle. "Évaluation de la qualité du sperme de l’étalon." Le Nouveau Praticien Vétérinaire équine 12, no. 44 (2017): 29–35. https://doi.org/10.1051/npvequi/44029.

Full text
Abstract:
Les analyses classiques effectuées sur les spermatozoïdes d’étalon permettent de prédire la fertilité dans une certaine mesure. Leurs limites sont bien connues : pour le sperme frais, environ 24 p. cent des chevaux à qualité de sperme jugée “insuffisante” sont pourtant fertiles, et environ 20 p. cent des chevaux à qualité de sperme jugée “acceptable” sont cependant infertiles. Des analyses approfondies des différents compartiments cellulaires, notamment grâce à la cytométrie, peuvent apporter des informations complémentaires. De plus, pour prédire la fertilité, il n’est pas suffisant d’analyser individuellement les différents critères de qualité des spermatozoïdes par rapport à des “seuils d’acceptabilité” pour chaque critère. Il est nécessaire d’évaluer la qualité du sperme dans son ensemble, car des mécanismes compensatoires sont possibles. Aucun test ne permet à lui seul, de prédire la fertilité avec suffisamment de précision. Aucun test ne permet à lui seul, de prédire la fertilité avec suffisamment de précision. La Jumenterie du Pin a développé une technique d’examen et un modèle statistique qui permet de prédire la fertilité du sperme, frais ou congelé, d’un étalon, à partir l’analyse globale de plusieurs critères de qualité des spermatozoïdes. Les examens incluent notamment l’analyse automatisée de mobilité et la cytométrie. Cette technique disponible dès maintenant améliore considérablement la prédiction de la fertilité, par rapport aux analyses classiques.
APA, Harvard, Vancouver, ISO, and other styles
3

Munoz, Alain. "EVALUATION PAR VALIDATION INDEPENDANTE DES PREDICTIONS DES PARAMETRES FORESTIERS REALISEES A PARTIR DE DONNEES LIDAR AEROPORTE." Revue Française de Photogrammétrie et de Télédétection 1, no. 211-212 (December 6, 2015): 81–92. http://dx.doi.org/10.52638/rfpt.2015.547.

Full text
Abstract:
L’utilisation des données LiDAR aéroporté pour modéliser, caractériser et cartographier la ressource forestière esteffective depuis une dizaine d’années dans les pays d’Amérique du Nord ou d’Europe du Nord. Néanmoins, en France, il existe peu d’exemples d’applications forestières du LiDAR sur de grandes surfaces, dans des contextes forestiers souvent plus complexes et hétérogènes que les forêts boréales et les grandes pinèdes du nord de l’Europe. Dans cette étude, la méthode dite « surfacique », qui consiste à calibrer des modèles empiriques de régression mettant en relation des paramètres dendrométriques mesurés sur le terrain avec des métriques dérivées des données LiDAR, est évaluée sur trois sites forestiers français. Les modèles de prédiction se basent sur les métriques usuelles dérivées du nuage de points LiDAR, ainsi que sur des métriques calculées à partir d'une individualisation préalable des houppiers des arbres dominants. Une validation indépendante, à l’échelle du peuplement, a permis d’évaluer la fiabilité des modèles de prédiction sur des surfaces de l'ordre d’un hectare, pertinentes pour le gestionnaire. Les résultats montrent qu’il est possible de caractériser la ressource forestière dans différents peuplements, allant des hêtraies ou pinèdes régulières de plaine aux sapinières-pessières hétérogènes de montagne. L'erreur des modèles (RMSE) estimée par validation croisée à l'échelle de la placette est de 14 à 22 % (R² de 0,75 à 0,90) pour la surface terrière, de 7 à 8 % (R² de 0,76 à 0,96) pour le diamètre dominant et de 17 à 32 % (R² de 0,50 à 0,88) pour la densité de tiges. La validation indépendante à l’échelle du peuplement montre une bonne fiabilité des modèles quel que soit le paramètre forestier étudié, et tant qu’ils sont utilisés dans leur domaine de validité. Les écarts entre les moyennes des prédictions et les mesures de référence terrain sont de l’ordre de 10 à 15 % pour la surface terrière, de 6 à 8% pour le diamètre dominant et de 10 à 33% pour la densité de tiges. Ces résultats démontrent, sur des surfaces unitaires d’environ un hectare, que l'inventaire par LiDAR aérien peut atteindre une précision équivalente à celle des méthodes traditionnelles de terrain, y compris pour des forêts complexes.
APA, Harvard, Vancouver, ISO, and other styles
4

PEREZ, J. M. "Prévision de l’energie digestible des aliments pour le porc : intérêt du dosage des parois végétales par voie enzymatique." INRAE Productions Animales 3, no. 3 (July 3, 1990): 171–79. http://dx.doi.org/10.20870/productions-animales.1990.3.3.4371.

Full text
Abstract:
Dans le cadre d’un programme général de recherches sur la prévision de la valeur énergétique des aliments composés destinés au Porc, cette étude avait pour objet d’évaluer l’intérêt d’une nouvelle méthode rapide de dosage des parois végétales par voie enzymatique mise au point par l’INRA (PAR : Parois insolubles dans l’eau). L’expérimentation portait sur un ensemble de 43 régimes complexes, dont on a cherché en particulier à diversifier la nature des sources de fibres alimentaires. Les mesures de valeur énergétique (ED) ont été réalisées sur des porcs mâles castrés appartenant à la même gamme de poids (40 kg environ), à raison de quatre animaux par régime (172 bilans digestifs au total). Pour accroître la précision des résultats analytiques et la portée des équations de prédiction, les aliments expérimentaux ont fait l’objet de dosages répétés dans plusieurs laboratoires. Sur la base des critères classiques de sélection des équations (écart-type résiduel, R2), les modèles de prédiction mettant en jeu la variable PAR apparaissent dans l’ensemble les plus précis. Cependant, ils ne présentent pas d’avantage décisif par rapport aux modèles de prévision incluant la cellulose brute ou les résidus pariétaux selon Van Soest. Si on combine les erreurs liées aux modèles (ETR) et les erreurs associées aux analyses (SLAB), les équations avec PAR s’avèrent toujours préférables à celles utilisant les autres indicateurs de parois. Les meilleurs modèles faisant intervenir PAR aboutissent à des équations de prévision de l’énergie digestible dont l’incertitude totale (équation + analyses) n’excède pas 75 kcal par kg de matière sèche. L’équation 25 (Lipides, PAR, Cendres, MAT) s’avère la plus intéressante.
APA, Harvard, Vancouver, ISO, and other styles
5

Ricard, Anne. "Les marqueurs génétiques pour les aptitudes." Le Nouveau Praticien Vétérinaire équine 17, no. 59 (2023): 20–25. http://dx.doi.org/10.1051/npvequi/2024010.

Full text
Abstract:
Les marqueurs génétiques sont des différences entre chevaux dans la séquence de l’ADN. L’outil puce SNP (Single Nucleotid Polymorphism) permet de génotyper 60 000 différences ponctuelles d’une base de l’ADN pour un coût inférieur à 50 € (hors brevets). La chaîne de traitement de l’information génomique sera opérationnelle en France en 2025 pour tout cheval soumis au contrôle de filiation. Pour les caractères mono- ou oligo-géniques tels que les robes ou certaines pathologies, ce génotypage permet de déduire directement le phénotype du cheval et de gérer les accouplements à risque. Certains caractères complexes sont sous l’influence de gènes à effet majeur : la qualification et l’absence de faute aux allures pour le Trotteur Français, la distance en course pour le Pur-Sang anglais, la taille pour beaucoup de chevaux de selle. Dans ce cas, la connaissance du génotype augmente les probabilités de réalisation du caractère concerné, mais le résultat n’est pas binaire. Enfin, pour les caractères complexes, une évaluation incluant toutes les données génomiques permet une augmentation de la précision et une meilleure prédiction des performances des produits.
APA, Harvard, Vancouver, ISO, and other styles
6

Nichelli, Lucia, Mehdi Touat, Bertrand Mathon, Franck Bielle, Marc Sanson, Magorzata Marjanska, Stephane Lehericy, and Francesca Branzoli. "Précision diagnostique de la spectroscopie mega-press dans la prédiction de la mutation IDH: nos premiers résultats en clinique." Journal of Neuroradiology 50, no. 2 (March 2023): 143. http://dx.doi.org/10.1016/j.neurad.2023.01.062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Corniaux, Christian, Hubert Guérin, and H. Steingass. "Composition chimique et dégradabilité enzymatique et in vitro d'espèces ligneuses arbustives utilisables par les ruminants dans les parcours extensifs de la Nouvelle-Calédonie. II. Equation de prédiction de la dégradabilité enzymatique et in vitro de la m." Revue d’élevage et de médecine vétérinaire des pays tropicaux 49, no. 2 (February 1, 1996): 158–66. http://dx.doi.org/10.19182/remvt.9534.

Full text
Abstract:
En Nouvelle-Calédonie, comme dans de nombreux autres pays, il n'est pas envisageable à court terme de mettre en oeuvre toutes les méthodes d'évaluation des fourrages. Par ailleurs, la valeur alimentaire des arbustes fourragers est relativement méconnue comparativement à celle des herbacées. Aussi cette étude établit-elle des équations de prédiction de quelques facteurs liés à la valeur nutritive des ligneux tropicaux récoltés sur les zones de parcours néo-calédoniens. II s'agit, d'une part de critères déterminés par les méthodes enzymatiques: dégradabilité enzymatique de la matière organique (SMO) et des matières azotées dégradées par la pronase (MApro); et, d'autre part, par la méthode in vitro: dégradabilité in vitro de la matière organique (dMOgt) et des matières azotées (MAgt) par la méthode de production des gaz. Cette étude montre notamment la difficulté de déterminer ces équations à partir de critères chimiques simples (MAT, NDF, ADF) couramment utilisés pour les espèces herbacées. Leur teneur généralement élevée en lignines, la distribution de leurs matières azotées partiellement bloquées au niveau des parois indigestibles et la présence de tanins rendent nécessaire l'emploi de critères chimiques tels qu'ADL, MAadf et MAnadf (matières azotées liées ou non à l'ADF) dans le cas des arbres et arbustes fourragers. La précision des équations est néanmoins acceptable notamment pour la dMOgt et pour la famille des Fabacées. En revanche, les équations ne sont pas applicables pour MApro (sauf pour les Fabacées).
APA, Harvard, Vancouver, ISO, and other styles
8

Robert, C., O. Banton, P. Lafrance, and J. P. Villeneuve. "Analyse de sensibilité paramétrique d'un modèle simulant le transport de pesticide dans le sol." Revue des sciences de l'eau 5, no. 2 (April 12, 2005): 197–210. http://dx.doi.org/10.7202/705128ar.

Full text
Abstract:
Afin de protéger l'eau souterraine des pesticides épandus à la surface des sols agricoles, on doit être capable de prédire et d'évaluer a priori les risques de contamination. La modélisation mathématique, qui est basée sur la représentation des processus, s'avère être un outil à privilégier pour une telle prédiction. Cependant, la fiabilité des résultats de ces modèles est fonction de la précision et de la représentativité des différents paramètres d'entrée. A l'aide d'une analyse de sensibilité, il est possible d'évaluer l'impact de la variabilité de ces paramètres sur les résultats de la modélisation. Une étude de sensibilité menée avec le modèle Pesticide Rosit Zone Model (PRZM) a permis d'identifier les paramètres physiques d'entrée dont la variation apporte le plus de changements au niveau des principaux résultats, c'est-à-dire les paramètres d'entrée auxquels le modèle est le plus sensible. L'utilisation du coefficient de sensibilité relatif s'avère être à cet égard un outil de comparaison fort efficace dans le cadre d'une telle étude. Les paramètres d'apport en eau (précipitations) et en pesticide (taux d'application) sont ceux dont les variations provoquent le plus d'impact au niveau des résultais de la simulation. Egalement, les résultats des simulations sont aussi sensibles aux variations de la capacité au champ et de la densité du sol. La température, le point de flétrissement, ta profondeur d'évaporation et la dispersion sont des paramètres auxquels la modélisation est peu sensible.
APA, Harvard, Vancouver, ISO, and other styles
9

Gilliot, Jean-Marc, Emmanuelle Vaudour, Joël Michelin, and Sabine Houot. "Estimation des teneurs en carbone organique des sols agricoles par télédétection par drone." Revue Française de Photogrammétrie et de Télédétection, no. 213 (April 26, 2017): 105–15. http://dx.doi.org/10.52638/rfpt.2017.193.

Full text
Abstract:
La matière organique (MO) est un élément important de la fertilité des sols cultivés. Les mesures de réflectance ont déjàété utilisées avec succès pour prédire la teneur en carbone organique (CO) des sols agricoles, soit au laboratoire surdes échantillons de sols séchés, soit directement au champ à l'aide de spectro-radiomètres de terrain ou grâce à desimages satellitaires. Cette étude propose une méthode de prédiction spatialisée du CO des sols, à partir d'imageriedrone. Une parcelle agricole de 13 ha « la Grande Borne », située dans la plaine de Versailles (78), a été suivie en avril2013, peu avant le semis alors qu'elle était encore en sol nu. Le drone AIRINOV® utilisé était équipé de la caméramultispectrale quadri-bande multiSPEC 4C® (550nm, 660nm, 735 nm et 790 nm) et évoluait à une altitude de 150 m.Vingt-trois placettes de contrôle au sol, réparties dans la parcelle, ont été délimitées par des cibles géolocaliséescentimétriquement par DGPS et ont fait l'objet de mesures synchrones au vol drone : mesures spectrales de terrain(ASD FieldSpec 3®), mesures de rugosité par une méthode photogrammétrique, prélèvements d'échantillons de solpour analyse de la composition chimique et de la teneur en eau. Les images obtenues d'une résolution de 15cm ont étégéoréférencées avec une précision infra-pixellaire. Les spectres de terrain ont été agrégés sur les bandes spectrales de2la multiSPEC® 4C afin de valider par régression linéaire la qualité des données de réflectance du drone. Les Robtenus, entre 0,8 et 0,9 selon les bandes, ainsi que l'erreur comprise entre 1 et 3% en réflectance, ont montrés lafiabilité du capteur multiSPEC 4C®. La teneur en CO a ensuite été estimée par régression des moindres carrés partiels(PLSR) à partir des mesures spectrales sur les 23 placettes. L'erreur quadratique moyenne de validation croisée(RMSECV) par la méthode LOO (Leave One Out) était de 1,97 g de CO par kg de sol. Un second modèle intégrant lacorrection des effets de l'humidité et de la rugosité sur la réflectance, a permis d'améliorer la qualité de la prédiction de18% avec une RMSECV de 1,61 g/kg. Le modèle a enfin été spatialisé sous SIG et comparé à de simples interpolationsspatiales des analyses de sol.
APA, Harvard, Vancouver, ISO, and other styles
10

SACRAMENTO, Isabelle Tèniola, Guy Apollinaire MENSAH, and Jean-Marc ATEGBO. "Détermination de l’âge de l’aulacode par le poids du cristallin de l’œil." Journal of Applied Biosciences 181 (January 31, 2023): 18917–24. http://dx.doi.org/10.35759/jabs.181.4.

Full text
Abstract:
Objectifs : Conscient que la qualité de la viande varie en fonction de l’âge, la détermination de l’âge de l’aulacode gibier dans le but de comparer la qualité organoleptique, microbiologique et technologique de sa viande à celle de l’aulacode d’élevage est indispensable ce qui justifie la présente étude. Méthodologie et résultats : L’âge de 24, 36 et 48 semaines respectivement des 150 aulacodes tous sexes confondus (50 aulacodes par tranche d’âge) étudiés était connu avec précision au moment du prélèvement du cristallin. Un total de 60 aulacodes sauvages ou aulacodes gibiers dont 30 aulacodins et 30 aulacodines, avec des âges estimés à 7, 8 et 12 mois, abattus par des chasseurs a été utilisé dans cette étude. La technique de Lord (1959) modifiée par Martinet (1966) a été employée. Dès leur abattage, les aulacodes âgés de 24, 36 et 48 semaines ont été mesurés, pesés pleins et vidés au kg puis sexés. Les deux yeux ont été prélevés entiers et intacts et mis dans un flacon d’eau formolée à 10%. Les yeux ont été conservés dans un flacon étanche à large ouverture en polyéthylène de PROLABO et n’ont pas été congelés. Le flacon a été muni d’une étiquette autocollante renseignée de façon indélébile où a été mentionnée la date de l’abattage, le sexe et le poids exact pesé plein et vide. Un séjour de 30 jours minimum dans une solution de formol a été nécessaire pour permettre la stabilisation du cristallin et sa manipulation sans risque de l’abimer. Les cristallins ont été alors extraits du globe oculaire, nettoyés et mis à dessiccation complète dans une étuve ventilée à 100° C pendant 24 heures. Ils ont été ensuite pesés au milligramme près (0,000). Enfin le poids moyen des cristallins a été calculé pour chaque tranche d’âge. Conclusion et application des résultats: La courbe établie permettra de déterminer avec précision l’âge des aulacodes d’élevage sans fiche de suivi, des aulacodes gibiers et des rongeurs apparentés à l’aulacode chaque fois que le processus de prélèvement du cristallin utilisé dans cette étude sera respecté. Mots-clés : Aulacodes, Bénin, détermination de l’âge, équation de prédiction, pesée de cristallin.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Précision de prédiction"

1

Allart, Emilie. "Abstractions de différences exactes de réseaux de réactions : améliorer la précision de prédiction de changements de systèmes biologiques." Thesis, Lille, 2021. http://www.theses.fr/2021LILUI013.

Full text
Abstract:
Des prédictions de changements pour des réseaux de réactions avec information cinétique partielle peuvent être obtenues par raisonnement qualitatif avec l'interprétation abstraite. Un problème de prédiction classique en biologie systémique est de savoir quels knock-outs de gènes peuvent, ou doivent, augmenter le flux de sortie d'une espèce ciblée à l'état stationnaire. Répondre à une telle question pour un réseau de réactions donné demande de raisonner avec des différences abstraites telles que "augmenter'' et "diminuer''. Une tâche fondamentale pour des prédictions de changements a été présenté par Niehren, Versari, John, Coutte, et Jacques (2016). Il s'agit du problème de calcul de l'abstraction de différences d'un ensemble de solutions positives d'un système d'équations linéaires avec des contraintes de différences non linéaires.Précédemment, des algorithmes de surapproximation pour cette tâche ont été proposé en utilisant différentes heuristiques, par exemple basées sur la réécriture des équations linéaires. Dans cette thèse, nous présentons les premiers algorithmes exacts pouvant résoudre cette tâche pour les deux abstractions de différences utilisées dans la littérature.En guise de première contribution, nous montrons pour un système d'équations linéaires, comment caractériser l'abstraction booléenne de l'ensemble de ces solutions positives. Cette abstraction associe 1 à n'importe quel réel strictement positif, et 0 à 0. La caractérisation est donnée par l'ensemble des solutions booléennes d'un autre système d'équations, qui est obtenu à partir des modes élémentaires. Les solutions booléennes de ce système caractéristique peuvent être calculées en pratique à l'aide de la programmation par contraintes sur les domaines finis. Nous pensons que ce résultat est intéressant pour l'analyse de programmes fonctionnels avec arithmétiques linéaires.Comme seconde contribution, nous présentons deux algorithmes qui calculent, pour un système d'équations linéaires et de contraintes à différences non linéaires donné, l'abstraction de différences en Delta_3 et respectivement en Delta_6.Ces algorithmes s'appuient sur la caractérisation des abstractions booléennes pour les systèmes d'équations linéaires issue de la première contribution. Le lien entre ces abstractions est défini en logique du premier-ordre, tel que l'abstraction peut être calculée par la programmation par contraintes sur les domaines finis également.Nous avons implémenté nos algorithmes exacts et les avons appliqués à la prédiction de knock-outs de gènes qui peuvent mener à une surproduction de leucine dans B.~Subtilis, nécessaire pour la surproduction de surfactine en biotechnologie.Le calcul des prédictions précises avec l'algorithme exact peut tout de même prendre plusieurs heures. Pour cela, nous présentons aussi une nouvelle heuristique, basée sur les modes élémentaires, pour le calcul de l'abstraction de différences. Celle-ci fournit un bon compromis entre précision et efficacité en temps
Change predictions for reaction networks with partial kinetic information can be obtained by qualitative reasoning with abstract interpretation. A typical change prediction problem in systems biology is which gene knockouts may, or must, increase the outflow of a target species at a steady state. Answering such questions for reaction networks requires reasoning about abstract differences such as "increases'' and "decreases''. A task fundamental for change predictions was introduced by Niehren, Versari, John, Coutte, et Jacques (2016). It is the problem to compute for a given system of linear equations with nonlinear difference constraints, the difference abstraction of the set of its positive solutions. Previous approaches provided overapproximation algorithms for this task based on various heuristics, for instance by rewriting the linear equations. In this thesis, we present the first algorithms that can solve this task exactly for the two difference abstractions used in the literature so far. As a first contribution, we show how to characterize for a linear equation system the boolean abstraction of its set of positive solutions. This abstraction maps any strictly positive real numbers to 1 and 0 to 0. The characterization is given by the set of boolean solutions for another equation system, that we compute based on elementary modes. The boolean solutions of the characterizing equation system can then be computed based on finite domain constraint programming in practice. We believe that this result is relevant for the analysis of functional programs with linear arithmetics. As a second contribution, we present two algorithms that compute for a given system of linear equations and nonlinear difference constraints, the exact difference abstraction into Delta_3 and Delta_6 respectively. These algorithms rely on the characterization of boolean abstractions for linear equation systems from the first contribution. The bridge between these abstractions is defined in first-order logic. In this way, the difference abstraction can be computed by finite set constraint programming too. We implemented our exact algorithms and applied them to predicting gene knockouts that may lead to leucine overproduction in B.~Subtilis, as needed for surfactin overproduction in biotechnology. Computing the precise predictions with the exact algorithm may take several hours though. Therefore, we also present a new heuristics for computing difference abstraction based on elementary modes, that provides a good compromise between precision and time efficiency
APA, Harvard, Vancouver, ISO, and other styles
2

Poudroux, Cécile. "Étude de l'incidence des paramètres primaires des lignes couplées sur la précision de prédiction de l'amplitude des parasites induits sur des torons multifilaires." Lille 1, 1992. http://www.theses.fr/1992LIL10098.

Full text
Abstract:
La prédiction de l'amplitude des parasites induits par une agression électromagnétique sur des faisceaux de câbles multifilaires se résout par la théorie des lignes couplées et nécessite la connaissance des paramètres primaires de ces lignes. Ces coefficients inductance et capacité peuvent être obtenus au moyen de mesures fastidieuses ou parfois par des modèles numériques, qui s'avèrent très vite inexploitables lorsque le nombre de conducteurs augmente. Nous avons d'abord recherché différents protocoles de mesures des paramètres linéiques d'un câble multifilaire. Puis, afin de réduire les procédés expérimentaux d'évaluation de ces paramètres à la seule détermination des inductances, nous avons proposé une simplification du formalisme modal de la théorie des lignes qui consiste à supposer que tous les modes se propagent à la même vitesse qui s'apparente à celle du mode commun, c'est-à-dire à supposer que le milieu est homogène. Dans le domaine fréquentiel, les erreurs introduites par cette simplification affectent le nombre et la position des fréquences de résonances des parasites. Pour compléter notre étude, nous avons confronté le modèle simplifié et le modèle rigoureux dans le domaine temporel en utilisant la théorie modale des réflexions multiples. Une autre simplification a consisté à réduire un conducteur quelconque d'un faisceau à un conducteur équivalent dont les paramètres géométriques sont modifiés afin de faire abstraction des conducteurs voisins
APA, Harvard, Vancouver, ISO, and other styles
3

Nguyen, Cam Linh. "Prédiction de la réponse aux traitements in vivo de tumeurs basées sur le profil moléculaire des tumeurs par apprentissage automatique." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0208.

Full text
Abstract:
Ces dernières années, les thérapies ciblées pour le traitement du cancer, ont été introduites. Cependant, un médicament fonctionnant chez un patient peut ne pas fonctionner chez un autre. Pour éviter l'administration de traitements inefficaces, des méthodes capables de prédire les patients qui répondront à un médicament donné doivent être mises au point.Il n'est actuellement pas possible de prédire l'efficacité de la grande majorité des médicaments anticancéreux. L’apprentissage automatique (AA) est un outil particulièrement prometteur pour la médecine personnalisée. L’AA est un champ d’étude de l'intelligence artificielle ; elle concerne la mise au point et l'application d'algorithmes informatiques qui s'améliorent avec l'expérience. Dans ce cas, l'algorithme d’AA apprendra à faire la distinction entre les tumeurs sensibles et résistantes en fonction de plusieurs gènes au lieu d'un seul gène. Cette étude se concentre sur l'application de différentes approches de l’AA pour prédire la réponse à des médicaments anticancéreux des tumeurs et générer des modèles précis, biologiquement pertinentes et faciles à expliquer
In recent years, targeted drugs for the treatment of cancer have been introduced. However, a drug that works in one patient may not work in another patient. To avoid the administration of ineffective treatments, methods that predict which patients will respond to a particular drug must be developed.Unfortunately, it is not currently possible to predict the effectiveness of most anticancer drugs. Machine learning (ML) is a particularly promising approach for personalized medicine. ML is a form of artificial intelligence; it concerns the development and application of computer algorithms that improve with experience. In this case, ML algorithm will learn to distinguish between sensitive and non-sensitive tumours based on multiple genes instead of a single gene. Our study focuses on applying different approaches of ML to predict drug response of tumours to anticancer drugs and generate models which have good accuracy, as well as are biologically relevant and easy to be explained
APA, Harvard, Vancouver, ISO, and other styles
4

Vernerey, Dewi. "Méthodologie statistique pour la prédiction du risque et la construction de score pronostique en transplantation rénale et en oncologie : une pierre angulaire de la médecine de précision." Thesis, Besançon, 2016. http://www.theses.fr/2016BESA3004/document.

Full text
Abstract:
Le pronostic est depuis longtemps un concept de base de la médecine. Hippocrate envisageait déjà le pronostic des maladies par l’étude des circonstances passées, l’établissement des faits présents, et enfin la prédiction des phénomènes à venir. Pour lui, tout l’art du pronostic était de savoir interpréter intelligemment ces informations, et ainsi moduler le pronostic en fonction de leur valeur relative. Une recherche à visée pronostique consiste toujours actuellement en l’examen des relations entre un état de santé connu au moment de l’investigation et un évènement futur. L’augmentation de l’espérance de vie implique que de plus en plus de personnes vivent avec une ou plusieurs maladies ou problèmes altérant leur santé. Dans ce contexte, l’étude du pronostic n’a jamais été aussi importante. Cependant, contrairement au domaine des essais cliniques randomisés dans lequel les recommandations CONSORT sont appliquées depuis plus de 20 ans et garantissent une recherche de qualité, la recherche pronostique commence seulement à se doter d’initiatives similaires. En effet, des recommandations TRIPOD ont été élaborées en 2015 et un groupe de travail, PROGRESS, s’est constitué en 2013 au Royaume-Uni et a fait le constat que les recherches a visée pronostique sont réalisées de façon très hétérogènes et malheureusement ne respectent pas toujours des standards de qualité nécessaires pour supporter leurs conclusions et garantir la reproductibilité des résultats (...)
Prognosis is historically a basic concept of medicine. Hippocrates already considered the prognosis of disease as the study of the past circumstances, the establishment of the present state of health and finally the prediction of future events. He presented the prognosis as the ability to interpret these elements and to adapt the prognosis regarding their relative values. Currently, the prognostic research is still based on the examination of the relationship between a well-established health condition at the time of the investigation and the occurrence of an event. The increase in life expectancy implies that more and more people are living with one or more diseases or with problems that can impair their health status. In this context, the study of the prognosis has never been more important. However, in comparison with the field of randomized clinical trials in which the CONSORT statement recommendations are implemented for more than 20 years in order to guarantee quality research, the prognostic research only begins to develop similar initiatives. Indeed, in 2015 the TRIPOD statement recommendations were provided and in 2013 a working group called PROGRESS was constituted in the United Kingdom and its members made the observation that prognostic researches are developed with considerable heterogeneity in the methodology used and unfortunately do not always meet the quality standards required to support their conclusions and their reproducibility (...)
APA, Harvard, Vancouver, ISO, and other styles
5

Joncas, Robert. "Précision dans la sélection des joueurs de hockey du junior majeur québecois de 1989-90-91 à partir d'une équation de prédiction du succès au niveau bantam." Mémoire, Université de Sherbrooke, 1995. http://hdl.handle.net/11143/7915.

Full text
Abstract:
Le hockey est le sport qui est le plus en vue au Canada et un des plus pratiqués. On y retrouve donc beaucoup de participants et de nombreux bénévoles qui sont de plus en plus expérimentés et sensibles aux valeurs que doit véhiculer cette activité sportive très populaire dans notre société. Cependant, lorsque l'on parle de l'élite, en particulier au niveau mineur, tous reconnaissent comment il est difficile au début de la saison de choisir les meilleurs joueurs pour former les équipes pour tous les niveaux, c'est davantage difficile avec les joueurs plus âgés. En utilisant l'équation de prédiction bantam, on élimine le problème de l'inéquité pour les joueurs et on fournit un outil valable pour les entraîneurs, les dépisteurs ou tous les autres intervenants. Pour vérifier la précision de cette équation, 120 joueurs du niveau junior majeur québécois ayant joué au cours des années 1989-90 et 1990-91 ont été utilisés dans l'expérimentation. Les résultats des différents tests de la F.Q.H.G. obtenus lors de leur passage au niveau bantam, ont été retenus pour l'analyse. Pour les fins de cette étude, trois groupes distincts ont été formés. Les résultats démontrent au niveau des différentes composantes que les joueurs recensés ont obtenu des moyennes plus élevées que celles constituant les données de la F.Q.H.G. de 1986. L'étude justifie l'utilité des tests à différentes fins, autant pour les niveaux mineurs que pour les niveaux supérieurs: midget « AAA » junior majeur, universitaire, etc.
APA, Harvard, Vancouver, ISO, and other styles
6

Bourgeais, Victoria. "Interprétation de l'apprentissage profond pour la prédiction de phénotypes à partir de données d'expression de gènes." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG069.

Full text
Abstract:
L'apprentissage profond est une avancée majeure de l'intelligence artificielle de ces dernières années. Ses domaines de prédilection sont principalement l'analyse d'image et le traitement du langage naturel. Un des futurs enjeux majeurs de cette approche est son application à la médecine de précision. Cette nouvelle forme de médecine permettra de personnaliser chaque étape du parcours de soin d'un patient en fonction de ses caractéristiques, notamment moléculaires telles que les données d'expression de gènes qui informent de l'état cellulaire d'un patient. Les modèles d'apprentissage profond sont néanmoins considérés comme des boîtes noires où aucune explication n'est fournie à la prédiction calculée. L'Union Européenne a adopté récemment un texte imposant aux algorithmes d'apprentissage automatique d'être capables d'expliquer leurs décisions aux utilisateurs. Il y a donc un réel besoin de rendre les réseaux de neurones plus interprétables et cela est particulièrement vrai dans le domaine médical pour différentes raisons. D'une part, pour s'assurer que le modèle se base sur des représentations fiables des patients et ne se concentre pas sur des artefacts non pertinents présents dans les données d'apprentissage. Ensuite, cela permettrait de rendre les différents utilisateurs (médecins, patients, chercheurs…) confiants dans leur utilisation de ce modèle. Enfin, un réseau de neurones performant pour la prédiction d'un certain phénotype peut avoir identifié une signature dans les données qui pourrait ouvrir sur de nouvelles pistes de recherche. Dans l'état de l'art actuel, il existe deux approches pour interpréter les réseaux neurones : en créant des modèles qui sont par essence interprétables, ou en ayant recours a posteriori à une méthode tierce dédiée à l'interprétation du réseau de neurones déjà appris. Quelle que soit la méthode choisie, l'explication fournie consiste généralement en l'identification des variables d'entrée et des neurones importants pour la prédiction. Or, dans le cas d'une application sur les données d'expression de gènes, cela n'est pas suffisant, car ces données sont difficilement compréhensibles par l'homme. Nous proposons ainsi de nouvelles méthodes originales d'apprentissage profond, interprétables par construction. L'architecture de ces méthodes est définie à partir d'une ou plusieurs bases de connaissances. Un neurone y représente un objet biologique et les connexions entre les neurones correspondent aux relations entre les objets biologiques. Trois méthodes ont été développées, listées ci-dessous dans l'ordre chronologique. La méthode Deep GONet se base sur un perceptron multicouche contraint par une base de connaissance biologique, la Gene Ontology (GO), par l'intermédiaire d'un terme de régularisation adapté. Les explications des prédictions sont fournies par une méthode d'interprétation a posteriori. La méthode GraphGONet tire parti à la fois d'un perceptron multicouche et d'un réseau de neurones de graphes afin d'exploiter au maximum la richesse sémantique de la connaissance GO. Ce modèle a la capacité de rendre automatiquement des explications. La méthode BioHAN ne se base plus que sur un réseau de neurones de graphes et peut facilement intégrer différentes bases de connaissances et leur sémantique. L'interprétation est facilitée par le recours aux mécanismes d'attention orientant le modèle à se concentrer sur les neurones les plus informatifs. Ces méthodes ont été évaluées sur des tâches de diagnostic à partir de jeux de données d'expression de gènes réelles et ont montré leur compétitivité par rapport aux méthodes d'apprentissage automatique de l'état de l'art. Nos modèles fournissent des explications intelligibles composées des neurones les plus importants et des concepts biologiques qui leur sont associés. Cette caractéristique permet aux experts d'utiliser nos outils dans un cadre médical
Deep learning has been a significant advance in artificial intelligence in recent years. Its main domains of interest are image analysis and natural language processing. One of the major future challenges of this approach is its application to precision medicine. This new form of medicine will make it possible to personalize each stage of a patient's care pathway according to his or her characteristics, in particular molecular characteristics such as gene expression data that inform about the cellular state of a patient. However, deep learning models are considered black boxes as their predictions are not accompanied by an explanation, limiting their use in clinics. The General Data Protection Regulation (GDPR), adopted recently by the European Union, imposes that the machine learning algorithms must be able to explain their decisions to the users. Thus, there is a real need to make neural networks more interpretable, and this is particularly true in the medical field for several reasons. Understanding why a phenotype has been predicted is necessary to ensure that the prediction is based on reliable representations of the patients rather than on irrelevant artifacts present in the training data. Regardless of the model's effectiveness, this will affect any end user's decisions and confidence in the model. Finally, a neural network performing well for the prediction of a certain phenotype may have identified a signature in the data that could open up new research avenues.In the current state of the art, two general approaches exist for interpreting these black-boxes: creating inherently interpretable models or using a third-party method dedicated to the interpretation of the trained neural network. Whatever approach is chosen, the explanation provided generally consists of identifying the important input variables and neurons for the prediction. However, in the context of phenotype prediction from gene expression, these approaches generally do not provide an understandable explanation, as these data are not directly comprehensible by humans. Therefore, we propose novel and original deep learning methods, interpretable by design. The architecture of these methods is defined from one or several knowledge databases. A neuron represents a biological object, and the connections between neurons correspond to the relations between biological objects. Three methods have been developed, listed below in chronological order.Deep GONet is based on a multilayer perceptron constrained by a biological knowledge database, the Gene Ontology (GO), through an adapted regularization term. The explanations of the predictions are provided by a posteriori interpretation method.GraphGONet takes advantage of both a multilayer perceptron and a graph neural network to deal with the semantic richness of GO knowledge. This model has the capacity to generate explanations automatically.BioHAN is only established on a graph neural network and can easily integrate different knowledge databases and their semantics. Interpretation is facilitated by the use of an attention mechanism, enabling the model to focus on the most informative neurons.These methods have been evaluated on diagnostic tasks using real gene expression datasets and have shown competitiveness with state-of-the-art machine learning methods. Our models provide intelligible explanations composed of the most contributive neurons and their associated biological concepts. This feature allows experts to use our tools in a medical setting
APA, Harvard, Vancouver, ISO, and other styles
7

Ajana, Soufiane. "Prédiction du risque de DMLA : identification de nouveaux biomarqueurs et modélisation du risque." Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0205.

Full text
Abstract:
La dégénérescence maculaire liée à l’âge (DMLA) est la première cause de cécité dans les pays industrialisés. C’est une maladie complexe et multifactorielle ayant des conséquences majeures sur la qualité de vie des personnes atteintes. De nombreux facteurs de risque, génétiques et non génétiques, jouent un rôle important dans la pathogénèse des stades avancés de la DMLA. Les modèles de prédiction développés à ce jour reposent sur un nombre limité de ces facteurs, et sont encore peu utilisés dans la pratique clinique.Ce travail de thèse avait pour premier objectif d’identifier de nouveaux biomarqueurs circulants du risque de DMLA. Ainsi, à partir d’une étude post-mortem basée sur une approche de lipidomique, nous avons identifié les composés lipidiques sanguins les plus prédictifs des concentrations rétiniennes en acides gras polyinsaturés omégas 3 (AGPI w-3). Nous avons développé un modèle de prédiction basé sur 7 espèces de lipides des esters de cholestérol. Ce modèle, obtenu en combinant pénalisation et réduction de la dimension, a ensuite été validé dans des études cas-témoins de DMLA et dans un essai clinique randomisé de supplémentation en AGPI w-3. Ces biomarqueurs pourraient être utiles pour l’identification des personnes à haut risque de DMLA, qui pourraient ainsi bénéficier d’une supplémentation en AGPI w-3.Le deuxième objectif de cette thèse était de développer un modèle de prédiction du risque de progression vers une DMLA avancée à partir de facteurs de risque génétiques, phénotypiques et environnementaux. Une originalité de notre travail a été d’utiliser une méthode de régression pénalisée – un algorithme d’apprentissage automatique – dans un cadre de survie afin de tenir compte de la multicollinéarité entre les facteurs de risque. Nous avons également pris en compte la censure par intervalle et le risque compétitif du décès via un modèle à 3 états sain-malade-mort. Nous avons ensuite validé ce modèle sur une étude indépendante en population générale.Il serait intéressant de valider ce modèle de prédiction dans d’autres études indépendantes en y incluant les biomarqueurs circulants identifiés à partir de l’étude de lipidomique effectuée dans le cadre de cette thèse. Le but final serait d’intégrer cet outil prédictif dans la pratique clinique afin de rendre la médecine de précision une réalité pour les patients atteints de DMLA dans le futur proche
Age-related macular degeneration (AMD) is the leading cause of blindness in industrialized countries. AMD is a complex and multifactorial disease with major consequences on the quality of life. Numerous genetic and non-genetic risk factors play an important role in the pathogenesis of the advanced stages of AMD. Existing prediction models rely on a restricted set of risk factors and are still not widely used in the clinical routine.The first objective of this work was to identify new circulating biomarkers of AMD’s risk using a lipidomics approach. Based on a post-mortem study, we identified the most predictive circulating lipids of retinal content in omega-3 polyunsaturated fatty acids (w-3 PUFAs). We combined penalization and dimension reduction to establish a prediction model based on plasma concentration of 7 cholesteryl ester species. We further validated this model on case-control and interventional studies. These biomarkers could help identify individuals at high risk of AMD who could be supplemented with w-3 PUFAs.The second objective of this thesis was to develop a prediction model for advanced AMD. This model incorporated a wide set of phenotypic, genotypic and lifestyle risk factors. An originality of our work was to use a penalized regression method – a machine learning algorithm – in a survival framework to handle multicollinearities among the risk factors. We also accounted for interval censoring and the competing risk of death by using an illness-death model. Our model was then validated on an independent population-based cohort.It would be interesting to integrate the circulating biomarkers identified in the lipidomics study to our prediction model and to further validate it on other external cohorts. This prediction model can be used for patient selection in clinical trials to increase their efficiency and paves the way towards making precision medicine for AMD patients a reality in the near future
APA, Harvard, Vancouver, ISO, and other styles
8

Sene, Mbery. "Développement d’outils pronostiques dynamiques dans le cancer de la prostate localisé traité par radiothérapie." Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22115/document.

Full text
Abstract:
La prédiction d'un événement clinique à l'aide d'outils pronostiques est une question centrale en oncologie. L'émergence des biomarqueurs mesurés au cours du temps permet de proposer des outils incorporant les données répétées de ces biomarqueurs pour mieux guider le clinicien dans la prise en charge des patients. L'objectif de ce travail est de développer et valider des outils pronostiques dynamiques de rechute de cancer de la prostate, chez des patients traités initialement par radiothérapie externe, en prenant en compte les données répétées du PSA, l'antigène spécifique de la prostate, en plus des facteurs pronostiques standard. Ces outils sont dynamiques car ils peuvent être mis à jour à chaque nouvelle mesure disponible du biomarqueur. Ils sont construits à partir de modèles conjoints pour données longitudinales et de temps d'événement. Le principe de la modélisation conjointe est de décrire l'évolution du biomarqueur à travers un modèle linéaire mixte, décrire le risque d'événement à travers un modèle de survie et lier ces deux processus à travers une structure latente. Deux approches existent, les modèles conjoints à effets aléatoires partagés et les modèles conjoints à classes latentes. Dans un premier travail, nous avons tout d'abord comparé, en terme de qualité d'ajustement et de pouvoir prédictif, des modèles conjoints à effets aléatoires partagés différant par leur forme de dépendance entre le PSA et le risque de rechute clinique. Puis nous avons évalué et comparé ces deux approches de modélisation conjointe. Dans un deuxième travail, nous avons proposé un outil pronostique dynamique différentiel permettant d'évaluer le risque de rechute clinique suivant l'initiation ou non d'un second traitement (un traitement hormonal) au cours du suivi. Dans ces travaux, la validation de l'outil pronostique a été basée sur deux mesures de pouvoir prédictif: le score de Brier et l'entropie croisée pronostique. Dans un troisième travail, nous avons enfin décrit la dynamique des PSA après un second traitement de type hormonal chez des patients traités initialement par une radiothérapie seule
The prediction of a clinical event with prognostic tools is a central issue in oncology. The emergence of biomarkers measured over time can provide tools incorporating repeated data of these biomarkers to better guide the clinician in the management of patients. The objective of this work is to develop and validate dynamic prognostic tools of recurrence of prostate cancer in patients initially treated by external beam radiation therapy, taking into account the repeated data of PSA, the Prostate-Specific Antigen, in addition to standard prognostic factors. These tools are dynamic because they can be updated at each available new measurement of the biomarker. They are built from joint models for longitudinal and time-to-event data. The principle of joint modelling is to describe the evolution of the biomarker through a linear mixed model, describe the risk of event through a survival model and link these two processes through a latent structure. Two approaches exist, shared random-effect models and joint latent class models. In a first study, we first compared in terms of goodness-of-fit and predictive accuracy shared random-effect models differing in the form of dependency between the PSA and the risk of clinical recurrence. Then we have evaluated and compared these two approaches of joint modelling. In a second study, we proposed a differential dynamic prognostic tool to evaluate the risk of clinical recurrence according to the initiation or not of a second treatment (an hormonal treatment) during the follow-up. In these works, validation of the prognostic tool was based on two measures of predictive accuracy: the Brier score and the prognostic cross-entropy. In a third study, we have described the PSA dynamics after a second treatment (hormonal) in patients initially treated by a radiation therapy alone
APA, Harvard, Vancouver, ISO, and other styles
9

Wicki, Marine. "Etude de plans de connexion entre populations génétiquement proches visant à accroître l'intérêt de la sélection génomique en petits ruminants." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. https://theses.hal.science/tel-04866958.

Full text
Abstract:
De nombreuses études montrent que la précision des prédictions génomiques et ainsi l’efficacité des schémas de sélection, dépend de la taille et la composition de la population de référence considérée. Cette population de référence est l’ensemble des animaux pour lesquels on dispose d’information génomique et phénotypique. Plus la taille de cette population est importante, meilleure est la qualité des prédictions génomiques des candidats à la sélection. De même, plus la population de référence est apparentée aux candidats à la sélection, meilleures sont les prédictions génomiques de ces derniers. Dans le cas où la taille de la population de référence est limitante, comme on peut l’observer par exemple en ovins, il peut être intéressant de combiner les évaluations génomiques de plusieurs populations. Des études ont montré que cette combinaison est bénéfique lorsqu’elle implique des populations génétiquement proches. L’objectif de la thèse est de contribuer à la mise en place de programmes de sélection multi-raciales ou multi-population, dans le but d’accroître l’efficacité de la sélection génomique pour des races et populations génétiquement proches, particulièrement en petits ruminants. Pour ce faire, nous avons dans un premier temps, à partir de données réelles, étudié la structure (pedigree et génomique) de la race Lacaune. Cette étude a confirmé la subdivision de la race en deux sous-populations, de tailles équivalentes, et l’absence de connexions génétiques entre elles. Cette étude a cependant montré que les deux sous-populations sont toujours génétiquement proches l’une de l’autre. Sur ce même jeu de données, nous avons comparé les qualités de prédictions génomiques entre les évaluations individuelles de chaque sous-population et une évaluation combinée. Nous avons montré que l’évaluation combinée des deux sous-populations était toujours bénéfique mais les gains de précision sont faibles. Nous nous sommes également intéressés aux estimations des effets des SNPs en fonction des différentes populations de référence considérées. Les estimations des effets des SNPs se sont révélées très différentes entre les deux références individuelles. Les effets des SNPs sont plus proches entre les références individuelles et la référence combinée mais on observe tout de même une certaine différence que nous n’avons pas retrouvé dans les prédictions génomiques.La deuxième partie de cette thèse a consisté aux mêmes types de travaux mais réalisés sur des populations présentant un contexte opposé : les races Merino et Dohne Merino australiennes. Ces populations présentent des tailles très déséquilibrées, la race Merino étant la première race australienne tandis que la race Dohne Merino ne bénéficie pas encore d’une population de référence suffisante pour réaliser une évaluation génomique. L’analyse de la structure des populations a cependant montré un fort niveau de connexions génétiques entre les deux races qui sont beaucoup utilisées en croisement. Cette étude a finalement montré que l’évaluation génomique combinée était très avantageuse pour la race Dohne Merino et est ainsi prometteuse pour une possible transition vers la sélection génomique pour cette race. La dernière partie de cette thèse visait, à partir de simulations stochastiques, à étudier les conséquences de la divergence d’une population d’origine en deux sous-populations sur l’efficacité de la sélection génomique. Ces conséquences sont toujours comparées dans le cadre d’une évaluation individuelle vs combinée de ces deux sous-populations. Cette étude a montré que la subdivision de la population en deux sous-populations impactait négativement le gain génétique. Cette détérioration de gain génétique est d’autant plus importante que la séparation se fait de façon déséquilibrée (donc qu’une des deux sous-population est de faible taille) et que l’évaluation est séparée
Numerous studies have shown that the accuracy of genomic predictions, and thus the efficiency of breeding programs, depend on the size and design of the reference population considered. This reference population is the set of animals for which genomic and phenotypic information is available. The larger the reference population, the better the quality of genomic predictions for the candidates to selection. Similarly, the greater the relatedness between the reference population and the candidates, the better the genomic predictions of selection candidates. In cases where the size of the reference population is limiting, as can be observed in sheep for example, it can be interesting to combine genomic evaluations from several populations. Studies have shown that this combination is beneficial when it involves genetically close populations. The aim of this thesis is to contribute to the implementation of multi-racial or multi-population breeding programs, with the aim of increasing the efficiency of genomic selection for genetically close breeds and populations, particularly in small ruminants.To achieve this, we first used real data to study the pedigree and genomic structure of the Lacaune breed. This study confirmed the subdivision of the breed into two subpopulations of equivalent size, and the absence of genetic connections between them. The study did, however, show that the two sub-populations are still genetically close to each other. On the same dataset, we compared the quality of genomic predictions between the individual evaluations of each subpopulation and the combined evaluation of both populations. We showed that combining the evaluation was still beneficial, but the gains in accuracy were small. We also looked at SNP effect estimates according to the different reference populations considered. Estimates of the SNPs effects were very different between the two individual references. SNP effects were closer between the individual references and the combined reference, but there was still some difference, which we did not find in the genomic predictions.The second part of this thesis involved the same type of work, but carried out on populations presenting an opposite context: the Australian Merino and Dohne Merino breeds. The Merino breed is Australia's first breed, while the Dohne Merino breed does not yet have a sufficiently large reference population to perform genomic evaluation. However, the population structure analysis showed a high level of genetic connectedness between the two breeds, which are widely used in crossbreeding. In the end, this study showed that combined genomic evaluation was highly advantageous for the Dohne Merino breed, and is therefore promising for a possible transition to genomic selection for this breed.The final part of this thesis used stochastic simulations to study the consequences of the divergence of an original population into two sub-populations on the efficiency of genomic selection. These consequences are still compared within the framework of an individual vs. combined evaluation of these two sub-populations. We showed that the subdivision of the population into two subpopulations had a negative impact on genetic gain. This deterioration in genetic gain is all the greater when the separation is unbalanced (i.e. when one of the two sub-populations is small) and the evaluation is separate
APA, Harvard, Vancouver, ISO, and other styles
10

Ferte, Charles. "Modèles prédictifs utilisant des données moléculaires de haute dimension pour une médecine de précision en oncologie." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA11T101.

Full text
Abstract:
Le niveau médiocre des taux de réponses et des améliorations de survie lorsque des stratégies conventionnelles sont appliquées souligne la nécessité de développer des outils prédictifs performants, robustes et applicables en clinique. La démocratisation des technologies d’analyses à haut-débit est le substrat de la médecine de précision permettant le développement de modèles prédictifs capables d’orienter les stratégies thérapeutiques et la définition d’une nouvelle taxonomie des cancers par l’intégration de données moléculaires de haute dimension. A travers cette thèse, nous avons d’abord analysé des données publiques d’expression génique de cancer bronchique non à petites cellules dans le but de prédire la probabilité de survie à trois ans. Le fort pouvoir prédictif de la TNM seule et la faible taille des cohortes de validation ont malheureusement limité la possibilité de traduire nos résultats en clinique. Nous avons ensuite développé un prédicteur du phénotype « KRAS muté » spécifique du cancer colorectal, permettant d’identifier de nouveaux traits moléculaires responsables de ce phénotype et d’améliorer la prédiction de la réponse au cetuximab chez les patients KRAS sauvage. Enfin, nous avons combiné les données moléculaires des panels de lignées cellulaires CCLE et Sanger avec les données des cohortes du TCGA pour produire des prédicteurs performants de la sensibilité aux drogues. Ces modèles sont concordants avec des screens produits par interférence RNA et permettent d’expliquer la réponse extrême de patients sectionnés dans le programme de screening moléculaire MOSCATO.Les défis spécifiques posés par les données moléculaires de haute dimension dans le développement d’outils prédictifs applicables en clinique sont discutés dans cette thèse
The mediocre level of the rates of answers and the improvements of survival when conventional strategies are applied underlines the necessity of developing successful, strong and applicable predictive tools in private hospital. The democratization of the technologies of analyses with top-debit(-flow) is the substratum of the medicine of precision allowing the development of predictive models capable of directing the therapeutic strategies and the definition of a new taxonomy of cancers by the integration of molecular data of high dimension(size).Through this thesis(theory), we analyzed at first public data of genic expression of bronchial cancer not in small cells(units) with the aim of predicting the probability of survival in three years. The strong predictive power of the only TNM and
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography