Auswahl der wissenschaftlichen Literatur zum Thema „Prédiction de phénotype“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Prédiction de phénotype" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Prédiction de phénotype"

1

PEYRAUD, J. L., und F. PHOCAS. „Dossier " Phénotypage des animaux d'élevage "“. INRAE Productions Animales 27, Nr. 3 (25.08.2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Der volle Inhalt der Quelle
Annotation:
Avant-propos La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement. Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises. Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale. Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier. L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Ricard, Anne. „Les marqueurs génétiques pour les aptitudes“. Le Nouveau Praticien Vétérinaire équine 17, Nr. 59 (2023): 20–25. http://dx.doi.org/10.1051/npvequi/2024010.

Der volle Inhalt der Quelle
Annotation:
Les marqueurs génétiques sont des différences entre chevaux dans la séquence de l’ADN. L’outil puce SNP (Single Nucleotid Polymorphism) permet de génotyper 60 000 différences ponctuelles d’une base de l’ADN pour un coût inférieur à 50 € (hors brevets). La chaîne de traitement de l’information génomique sera opérationnelle en France en 2025 pour tout cheval soumis au contrôle de filiation. Pour les caractères mono- ou oligo-géniques tels que les robes ou certaines pathologies, ce génotypage permet de déduire directement le phénotype du cheval et de gérer les accouplements à risque. Certains caractères complexes sont sous l’influence de gènes à effet majeur : la qualification et l’absence de faute aux allures pour le Trotteur Français, la distance en course pour le Pur-Sang anglais, la taille pour beaucoup de chevaux de selle. Dans ce cas, la connaissance du génotype augmente les probabilités de réalisation du caractère concerné, mais le résultat n’est pas binaire. Enfin, pour les caractères complexes, une évaluation incluant toutes les données génomiques permet une augmentation de la précision et une meilleure prédiction des performances des produits.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

PHOCAS, F., J. AGABRIEL, M. DUPONT-NIVET, J. GEURDEN, F. MÉDALE, S. MIGNON-GRASTEAU, H. GILBERT und J. Y. DOURMAD. „Le phénotypage de l’efficacité alimentaire et de ses composantes, une nécessité pour accroître l’efficience des productions animales“. INRAE Productions Animales 27, Nr. 3 (28.08.2014): 235–48. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3070.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte de demande croissante en protéines animales, l’élevage de précision et la sélection animale doivent viser à accroître la compétitivité des systèmes de production et à réduire leur impact environnemental. Les animaux doivent être plus efficaces pour transformer leur ration (réduire l’ingéré tout en maintenant une production stable), en acceptant des ressources alimentaires variées (protéines ou fibres) et en minimisant leurs rejets (totaux ou leurs composantes N et P, GES). Toutefois, l’efficacité alimentaire est un phénotype complexe qui doit être phénotypé finement pour comprendre les processus biologiques sous-jacents avant d’identifier les leviers d’action pour l’améliorer (efficacité digestive vs métabolique ; efficacité énergétique vs protéique). Ce phénotypage doit être réalisé en conditions variées tant sur le plan du génotype, du niveau alimentaire que de la composition de la ration (teneur en fibres, en acides aminés). Il s’agit aussi d’envisager une approche prédictive de l’ingéré et de l’efficacité alimentaire basée sur des paramètres peu coûteux et faciles à mesurer (croissance, bio-marqueurs…) dans le cadre d’un élevage de précision ou de programmes de sélection génétique, car le phénotypage à large échelle de l’ingéré reste coûteux et parfois difficile à mettre en oeuvre. Pour évaluer l’efficience globale des systèmes de productions animales, il s’agit de considérer les réponses des animaux pour des génotypes et des régimes alimentaires contrastés en termes d’efficacité alimentaire et de rejets en quantité et en qualité (GES, N, P), mais aussi de robustesse des animaux (comportement alimentaire, activité générale, santé).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Groheux, D., M. Hatt, A. Martineau, D. Visvikis, S. Giacchetti, P. De Cremoux, J. Lehmann-Che, M. Espie, C. Cheze-Le-rest und E. Hindie. „Prédiction de la réponse a la chimiothérapie néoadjuvante du cancer du sein de phénotype luminal : apport du volume glycolytique total“. Médecine Nucléaire 37, Nr. 5 (Mai 2013): 137. http://dx.doi.org/10.1016/j.mednuc.2013.03.011.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Bougeard, Alan, Rose Guay Hottin1, Valérie Houde, Thierry Jean, Thibault Piront, Stéphane Potvin, Paquito Bernard, Valérie Tourjman, Luigi De Benedictis und Pierre Orban. „Le phénotypage digital pour une pratique clinique en santé mentale mieux informée“. Santé mentale au Québec 46, Nr. 1 (21.09.2021): 135–56. http://dx.doi.org/10.7202/1081513ar.

Der volle Inhalt der Quelle
Annotation:
Objectifs Cette revue trouve sa motivation dans l’observation que la prise de décision clinique en santé mentale est limitée par la nature des mesures typiquement obtenues lors de l’entretien clinique et la difficulté des cliniciens à produire des prédictions justes sur les états mentaux futurs des patients. L’objectif est de présenter un survol représentatif du potentiel du phénotypage digital couplé à l’apprentissage automatique pour répondre à cette limitation, tout en en soulignant les faiblesses actuelles. Méthode Au travers d’une revue narrative de la littérature non systématique, nous identifions les avancées technologiques qui permettent de quantifier, instant après instant et dans le milieu de vie naturel, le phénotype humain au moyen du téléphone intelligent dans diverses populations psychiatriques. Des travaux pertinents sont également sélectionnés afin de déterminer l’utilité et les limitations de l’apprentissage automatique pour guider les prédictions et la prise de décision clinique. Finalement, la littérature est explorée pour évaluer les barrières actuelles à l’adoption de tels outils. Résultats Bien qu’émergeant d’un champ de recherche récent, de très nombreux travaux soulignent déjà la valeur des mesures extraites des senseurs du téléphone intelligent pour caractériser le phénotype humain dans les sphères comportementale, cognitive, émotionnelle et sociale, toutes étant affectées par les troubles mentaux. L’apprentissage automatique permet d’utiles et justes prédictions cliniques basées sur ces mesures, mais souffre d’un manque d’interprétabilité qui freinera son emploi prochain dans la pratique clinique. Du reste, plusieurs barrières identifiées tant du côté du patient que du clinicien freinent actuellement l’adoption de ce type d’outils de suivi et d’aide à la décision clinique. Conclusion Le phénotypage digital couplé à l’apprentissage automatique apparaît fort prometteur pour améliorer la pratique clinique en santé mentale. La jeunesse de ces nouveaux outils technologiques requiert cependant un nécessaire processus de maturation qui devra être encadré par les différents acteurs concernés pour que ces promesses puissent être pleinement réalisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

PHOCAS, F., J. BOBE, L. BODIN, B. CHARLEY, J. Y. DOURMAD, N. C. FRIGGENS, J. F. Hocquette et al. „Des animaux plus robustes : un enjeu majeur pour le développement durable des productions animales nécessitant l’essor du phénotypage fin et à haut débit“. INRAE Productions Animales 27, Nr. 3 (28.08.2014): 181–94. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3066.

Der volle Inhalt der Quelle
Annotation:
L’enjeu majeur du phénotypage animal est d’acquérir une connaissance systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience et la robustesse des génotypes, et un élevage de précision exploitant la variabilité individuelle des animaux pour gagner en résilience à l’échelle du troupeau, ou pour améliorer la conduite à génotype donné. Deux défis majeurs de connaissance, interdépendants et communs à toutes les filières animales, sont à relever pour améliorer la robustesse des animaux : i) comprendre et prédire les compromis entre fonctions vitales, c’est-à-dire les changements de priorités dans l’allocation de ressources limitées ; ii) comprendre et exploiter les aspects temporels de la robustesse au cours de la vie de l’animal pour lui permettre de maintenir son niveau de production dans une large gamme d’environnements sans pour autant compromettre sa reproduction, sa santé et son bien-être. Atteindre ces objectifs nécessite de lever les verrous techniques suivants : i) définir des phénotypes complexes à partir de l’intégration de données obtenues à différentes échelles moléculaires, tissulaires, de l’animal ou d’une de ses fonctions ; ii) mettre en oeuvre des technologies à haut débit pour caractériser à moindre coût et le plus précisément possible le plus grand nombre d’animaux ; iii) développer d’importantes bases de données, des méthodes et outils informatiques performants, nécessaires aux traitements des informations à des fins de modélisation et de biologie prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Drapier, D. „Imagerie cérébrale en psychiatrie : applications cliniques actuelles et défis à venir“. European Psychiatry 29, S3 (November 2014): 553. http://dx.doi.org/10.1016/j.eurpsy.2014.09.352.

Der volle Inhalt der Quelle
Annotation:
Ce symposium a pour objectif de faire la lumière sur trois axes de développement de l’imagerie cérébrale en psychiatrie. La première communication porte sur l’imagerie de cohorte. Celle-ci permet l’étude des variations des caractéristiques (ou phénotypes) d’imagerie cérébrale dans le temps et du rôle des facteurs endogènes (ex. : rechutes de la maladie, observance & facteurs génétiques) et exogènes (ex. : stress & prises de toxiques). La maîtrise des techniques d’imagerie longitudinale se heurte cependant à des défis méthodologiques tels que la maîtrise des outils nécessaires pour équilibrer les pré-traitements sur l’ensemble des données [1], le développement d’outils statistiques permettant d’obtenir suffisamment de puissance mais également capables de s’adapter aux aléas du suivi de cohorte (perdu de vue notamment) [2]) et enfin la question de l’intégration d’une approche multimodale et d’un suivi longitudinal en imagerie. Dans la continuité avec cette dernière question, la seconde communication traite de l’emploi de l’approche multimodale en imagerie cérébrale afin d’explorer la connectivité anatomique (au moyen de l’imagerie par tenseur de diffusion) et fonctionnelle (à l’aide de l’imagerie fonctionnelle de repos). Sur le socle de l’état hallucinatoire chronique et des différentes modalités sensorielles (auditives et visuelles), l’approche multimodale permet de revisiter les premières descriptions cliniques des hallucinations [3]. Plus sensibles que leurs homologues cliniques, les phénotypes d’imagerie permettent un gain de puissance considérable des lors qu’il s’agit d’évaluer un pronostic. À cette fin, les traitements statistiques multivariés des phénotypes d’imagerie marquent une rupture avec l’approche univariée (i.e. voxel par voxel) jusqu’ici dominante dans le champ de l’imagerie fonctionnelle [4]. C’est dans ce cadre conceptuel que s’inscrit la troisième communication qui décrira la valeur prédictive des phénotypes d’imagerie et comment l’imagerie peut affiner le pronostic des sujets à très haut risque de transition psychotique [5]. Chacun des orateurs fera l’état des connaissances actuelles dans le domaine, en évoquant les applications cliniques possibles, mais aussi les perspectives futures en termes de recherche et d’applications aux soins.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

LE BAIL, P. Y., J. BUGEON, O. DAMERON, A. FATET, W. GOLIK, J. F. HOCQUETTE, C. HURTAUD et al. „Un langage de référence pour le phénotypage des animaux d’élevage : l’ontologie ATOL“. INRAE Productions Animales 27, Nr. 3 (28.08.2014): 195–208. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3067.

Der volle Inhalt der Quelle
Annotation:
Les avancées technologiques récentes en biologie permettent la production de grandes quantités de données capables de décrire de plus en plus finement les phénotypes. Pour traiter en masse ces informations à l’aide de programmes informatiques et comparer les phénotypes provenant d’études différentes, il est indispensable de disposer d’un langage standardisé définissant sans ambiguïté les caractères phénotypiques auxquels pourront se référer des utilisateurs variés (généticiens, physiologistes, biochimistes, modélisateurs, producteurs…). L’absence d’un tel référentiel pour les animaux d’élevage a conduit l’Inra, en collaboration avec ses partenaires internationaux, à mettre en place une ontologie nommée ATOL (« Animal Trait Ontology for Livestock »). Celle-ci vise à définir les caractères phénotypiques des animaux d’élevage en les organisant en catégories, autour des performances (efficacité alimentaire, fertilité), des produits (production laitière, de viande, d’oeufs, de foie gras) et des préoccupations sociétales (bien-être animal) se rapportant aux productions animales. Cet article explique les motivations à l’origine du projet, les objectifs poursuivis, la démarche adoptée et son originalité, ses limites et ses performances. Notre ambition est que cette ontologie, actuellement en accès libre sur la toile, soit largement utilisée pour référencer les caractères utilisés dans les publications et les bases de données, et ce pour favoriser une fouille bibliographique précise, facilitant ainsi l’intégration des informations à des fins de biologie systémique et prédictive.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

LE BIHAN-DUVAL, E., R. TALON, M. BROCHARD, J. GAUTRON, F. LEFÈVRE, C. LARZUL, E. BAÉZA und J. F. HOCQUETTE. „Le phénotypage de la qualité des produits animaux : enjeux et innovations.“ INRAE Productions Animales 27, Nr. 3 (28.08.2014): 223–34. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3069.

Der volle Inhalt der Quelle
Annotation:
Maîtriser la qualité des produits issus des animaux d’élevage suppose de pouvoir l’objectiver à partir de mesures fiables, faciles d’utilisation et si possible précoces et non invasives. Les programmes de recherche-développement mis en place au sein des différentes filières animales (ruminants, porcins, volailles, poissons) concernent notamment i) la détection et la quantification des contaminants biologiques ou chimiques des produits, ii) la détermination de la composition et des propriétés technologiques des produits grâce à des méthodes alternatives aux mesures analytiques de laboratoire (mesures optiques ou par imagerie, mesures physiques non invasives), et iii) la recherche de marqueurs biologiques précoces de la qualité (marqueurs génétiques, expression de gènes ou de protéines, teneurs en métabolites) et leur validation par des approches de modélisation. Appliqué à un panel de plus en plus large de critères de qualité, ce phénotypage à haut débit est nécessaire au développement de la sélection génétique ou génomique, à la biologie prédictive et à l’élevage de précision.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Groheux, D., M. Majdoub, P. De Cremoux, E. Hindie, A. Martineau, P. Merlet, D. Visvikis, M. Resche-Rigon, M. Hatt und M. Espie. „Prédiction précoce de la chimiothérapie néoadjuvante du cancer du sein : détermination de critères optimaux pour les principaux phénotypes“. Médecine Nucléaire 39, Nr. 3 (Mai 2015): 258. http://dx.doi.org/10.1016/j.mednuc.2015.03.178.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Prédiction de phénotype"

1

Carré, Clément. „Prédiction génétique des caractères complexes“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2912/.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est le développement des approches statistiques pour la prédiction génétique de caractères complexes. Quatre approches adaptées à différentes situations génétiques, sont développées. En situation d'additivité, un modèle linéaire qui combine les données de transmission génétique avec des marqueurs SNP se révèle utile quand les SNP ne capturent pas l'ensemble des effets génétiques influençant le caractère. En situation des effets génétiques non-linéaires, une méthode de régression à noyaux (Nadaraya-Watson) produit des prédictions plus précises que celles données par la méthode standard (BLUP). Après cette comparaison entre méthodes paramétriques et non paramétriques, il est utile de les faire coopérer entre eux : une méthode d'agrégation statistique s'est révélée efficiente et robuste pour le mélange de prédicteurs. Enfin, un algorithme original de projections aléatoires de modèles linéaires permet de retrouver rapidement les paramètres du modèle, dans le cas où celui-ci est parcimonieux
The objective of this thesis is the development of statistical approaches for genetic prediction of complex traits. Four approaches are developed, adapted to different genetic contexts. Under additivity, a linear model combining transmission and SNP marker data is useful when the SNP do not capture all genetic effects influencing the trait. Under nonlinear genetic effects, a kernel regression method (Nadaraya-Watson) yields more precise predictions than the standard method (BLUP). After the comparison of parametric vs. Nonparametric methods, we propose to combine methods : a statistical aggregation method is efficient and robust to mix several predictors. Finally, an original algorithm of random projections of linear models allows rapid recovery of parsimonious model parameters
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Garnier, Nicolas. „Mise en place d'un environnement bioinformatique d'évaluation et de prédiction de l'impact de mutations sur le phénotype de pathologies humaines“. Lyon 1, 2008. http://www.theses.fr/2008LYO10165.

Der volle Inhalt der Quelle
Annotation:
Le travail réalisé au cours de cette thèse se focalise sur l'application, à haut débit, de méthodologies bioinformatiques pour étudier les relations genotype/phénotype dans le cadre du projet MS2PH (« de la mutation structurale au phénotype des pathologies humaines »). Nous nous sommes tout d'abord concentré sur la génération de modèles 3D par homologie à haut débit avec le système de génération et de gestion Modeome3D (http://modeome3dpbil. Ibcp. Fr), puis, à la caractérisation des mutations dans un contexte fonctionnel et structural avec le développement de MAGOS (http://pigpbil. Ibcp. Fr/magos/). Nous avons ensuite exploité les capacités intégratives de MAGOS et de modélisation de Modeome3D pour mettre en place MS2PHdb (http://ms2phdbpbil. Ibcp. Fr/), une base de données dédiée aux protéines impliquées dans des maladies monogéniques humaines, qui intègre des données phénotypiques. Enfin, nous avons mis en place une méthode de prédiction utilisant réseaux de neurones et SVM pour prédire l'impact phénotypique d'une mutation
This thesis work focuses on high throughput applications of bioinformatics methodologies to study genotype/phenotype correlations in the context of the MS2PH project (“from Structural Mutation to Human Pathologies Phenotypes”). We first concentrated on the generation of homology models at high throughput level with Modeome3D generation and managment system (http://modeome3dpbil. Ibcp. Fr). Next, the characterization of the mutations in a functional and structural context was addressed by the development of MAGOS (http://pigpbil. Ibcp. Fr/magos/). Finally, we exploited the integrative capabilities of MAGOS, as well as the power of the Decrypthon computation grid to develop MS2PHdb (http://ms2phdbpbil. Ibcp. Fr/), a database dedicated to proteins involved in human monogenic diseases, which also integrates phenotypic data using the ability of modeome3D system. Finally a prediction method using neural network and SVM has been done to predict impact or not of mutation on phenotype
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Humbert, Olivier. „Imagerie TEP au 18F-FDG du cancer du sein : étude du comportement métabolique des différents phénotypes tumoraux et prédiction de la réponse tumorale à la chimiothérapie néoadjuvante“. Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS024/document.

Der volle Inhalt der Quelle
Annotation:
La Tomographie par Emission de Positons (TEP) au 18Fluoro-désoxyglucose (18F-FDG) est l’imagerie de référence pour la quantification in vivo du métabolisme glucidique des cellules tumorales. Elle permet, entre autre, de suivre les modifications du métabolisme tumoral en cours de chimiothérapie. Le cancer du sein regroupe différentes entités génomiques dont les comportements clinico-biologiques et la prise en charge thérapeutique divergent. L’objectif de cette thèse était d’étudier le lien entre ces diverses entités biologiques du cancer du sein et le comportement métabolique tumoral en cours de chimiothérapie néoadjuvante. Nous avons également extrait, parmi les différents paramètres métaboliques tumoraux des images TEP, les critères les plus robustes pour prédire dès la fin dès la première cure de chimiothérapie néoadjuvante la réponse histologique finale et la survie des patientes. Nous avons également appliqué un modèle de mesure de la perfusion tumorale, dérivée d’une acquisition dynamique du premier passage artériel et tumoral du 18F-FDG.Le premier article de cette thèse souligne l’impact majeur du phénotype tumoral sur le comportement métabolique en cours de chimiothérapie de la tumeur primitive mammaire. Les trois articles suivants montrent que, pour les tumeurs triple-négatives et HER2 positives, les modifications métaboliques tumorales observées par la TEP au 18F-FDG prédisent la réponse histologique complète à l’issue du traitement. Concernant le phénotype tumoral luminal/HER2 négatif, la réponse métabolique apporte surtout une information pronostique. L’imagerie TEP au 18F-FDG pourrait permettre dans un avenir proche de guider les choix thérapeutiques du clinicien, en proposant une alternative thérapeutique aux patientes non-répondeuses identifiées dès la première cure de chimiothérapie néoadjuvante
Positron Emission Tomography (PET) with 18Fluoro-deoxyglucose (18F-FDG) is the reference imaging examination for in-vivo quantification of the glucidic metabolism of tumour cells. It allows for the monitoring of tumour metabolic changes during chemotherapy. Breast cancer comprises several distinct genomic entities with different biological characteristics and clinical behaviours, leading to different tailored treatments. The aim of this doctoral thesis was to evaluate the relationship between the different biological entities of breast cancer and the tumour metabolic behaviour during neoadjuvant chemotherapy. We have also retrieved, among the various metabolic parameters on PET images, the most reliable ones to predict, as early as after the first neoadjuvant cycle, the final tumour histologic response and patient’s outcome. We have also evaluated early changes in tumour blood flow, using a tumour first-pass model derived from an dynamic 18F-FDG-PET acquisition.The first article presented in this thesis has underlined the strong correlation between breast cancer subtypes, and the tumour metabolic behaviour during chemotherapy. The following three articles have demonstrated that tumour metabolic changes after the first neoadjuvant cycle can predict the final histologic complete response at the end of the treatment, both in triple-negative and HER2 positive tumours. Concerning the luminal/HER2 subtype, the early metabolic response mainly predicts patient’s outcome.These results should lead, in the near future, to PET-guided neoadjuvant strategies, in order to adapt the neoadjuvant treatment in poor-responding women. Such a strategy should lead to enhanced personalized medicine
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Bourgeais, Victoria. „Interprétation de l'apprentissage profond pour la prédiction de phénotypes à partir de données d'expression de gènes“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG069.

Der volle Inhalt der Quelle
Annotation:
L'apprentissage profond est une avancée majeure de l'intelligence artificielle de ces dernières années. Ses domaines de prédilection sont principalement l'analyse d'image et le traitement du langage naturel. Un des futurs enjeux majeurs de cette approche est son application à la médecine de précision. Cette nouvelle forme de médecine permettra de personnaliser chaque étape du parcours de soin d'un patient en fonction de ses caractéristiques, notamment moléculaires telles que les données d'expression de gènes qui informent de l'état cellulaire d'un patient. Les modèles d'apprentissage profond sont néanmoins considérés comme des boîtes noires où aucune explication n'est fournie à la prédiction calculée. L'Union Européenne a adopté récemment un texte imposant aux algorithmes d'apprentissage automatique d'être capables d'expliquer leurs décisions aux utilisateurs. Il y a donc un réel besoin de rendre les réseaux de neurones plus interprétables et cela est particulièrement vrai dans le domaine médical pour différentes raisons. D'une part, pour s'assurer que le modèle se base sur des représentations fiables des patients et ne se concentre pas sur des artefacts non pertinents présents dans les données d'apprentissage. Ensuite, cela permettrait de rendre les différents utilisateurs (médecins, patients, chercheurs…) confiants dans leur utilisation de ce modèle. Enfin, un réseau de neurones performant pour la prédiction d'un certain phénotype peut avoir identifié une signature dans les données qui pourrait ouvrir sur de nouvelles pistes de recherche. Dans l'état de l'art actuel, il existe deux approches pour interpréter les réseaux neurones : en créant des modèles qui sont par essence interprétables, ou en ayant recours a posteriori à une méthode tierce dédiée à l'interprétation du réseau de neurones déjà appris. Quelle que soit la méthode choisie, l'explication fournie consiste généralement en l'identification des variables d'entrée et des neurones importants pour la prédiction. Or, dans le cas d'une application sur les données d'expression de gènes, cela n'est pas suffisant, car ces données sont difficilement compréhensibles par l'homme. Nous proposons ainsi de nouvelles méthodes originales d'apprentissage profond, interprétables par construction. L'architecture de ces méthodes est définie à partir d'une ou plusieurs bases de connaissances. Un neurone y représente un objet biologique et les connexions entre les neurones correspondent aux relations entre les objets biologiques. Trois méthodes ont été développées, listées ci-dessous dans l'ordre chronologique. La méthode Deep GONet se base sur un perceptron multicouche contraint par une base de connaissance biologique, la Gene Ontology (GO), par l'intermédiaire d'un terme de régularisation adapté. Les explications des prédictions sont fournies par une méthode d'interprétation a posteriori. La méthode GraphGONet tire parti à la fois d'un perceptron multicouche et d'un réseau de neurones de graphes afin d'exploiter au maximum la richesse sémantique de la connaissance GO. Ce modèle a la capacité de rendre automatiquement des explications. La méthode BioHAN ne se base plus que sur un réseau de neurones de graphes et peut facilement intégrer différentes bases de connaissances et leur sémantique. L'interprétation est facilitée par le recours aux mécanismes d'attention orientant le modèle à se concentrer sur les neurones les plus informatifs. Ces méthodes ont été évaluées sur des tâches de diagnostic à partir de jeux de données d'expression de gènes réelles et ont montré leur compétitivité par rapport aux méthodes d'apprentissage automatique de l'état de l'art. Nos modèles fournissent des explications intelligibles composées des neurones les plus importants et des concepts biologiques qui leur sont associés. Cette caractéristique permet aux experts d'utiliser nos outils dans un cadre médical
Deep learning has been a significant advance in artificial intelligence in recent years. Its main domains of interest are image analysis and natural language processing. One of the major future challenges of this approach is its application to precision medicine. This new form of medicine will make it possible to personalize each stage of a patient's care pathway according to his or her characteristics, in particular molecular characteristics such as gene expression data that inform about the cellular state of a patient. However, deep learning models are considered black boxes as their predictions are not accompanied by an explanation, limiting their use in clinics. The General Data Protection Regulation (GDPR), adopted recently by the European Union, imposes that the machine learning algorithms must be able to explain their decisions to the users. Thus, there is a real need to make neural networks more interpretable, and this is particularly true in the medical field for several reasons. Understanding why a phenotype has been predicted is necessary to ensure that the prediction is based on reliable representations of the patients rather than on irrelevant artifacts present in the training data. Regardless of the model's effectiveness, this will affect any end user's decisions and confidence in the model. Finally, a neural network performing well for the prediction of a certain phenotype may have identified a signature in the data that could open up new research avenues.In the current state of the art, two general approaches exist for interpreting these black-boxes: creating inherently interpretable models or using a third-party method dedicated to the interpretation of the trained neural network. Whatever approach is chosen, the explanation provided generally consists of identifying the important input variables and neurons for the prediction. However, in the context of phenotype prediction from gene expression, these approaches generally do not provide an understandable explanation, as these data are not directly comprehensible by humans. Therefore, we propose novel and original deep learning methods, interpretable by design. The architecture of these methods is defined from one or several knowledge databases. A neuron represents a biological object, and the connections between neurons correspond to the relations between biological objects. Three methods have been developed, listed below in chronological order.Deep GONet is based on a multilayer perceptron constrained by a biological knowledge database, the Gene Ontology (GO), through an adapted regularization term. The explanations of the predictions are provided by a posteriori interpretation method.GraphGONet takes advantage of both a multilayer perceptron and a graph neural network to deal with the semantic richness of GO knowledge. This model has the capacity to generate explanations automatically.BioHAN is only established on a graph neural network and can easily integrate different knowledge databases and their semantics. Interpretation is facilitated by the use of an attention mechanism, enabling the model to focus on the most informative neurons.These methods have been evaluated on diagnostic tasks using real gene expression datasets and have shown competitiveness with state-of-the-art machine learning methods. Our models provide intelligible explanations composed of the most contributive neurons and their associated biological concepts. This feature allows experts to use our tools in a medical setting
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Queyrel, Maxence. „End-to-End Deep Learning and Subgroup discovery approaches to learn from metagenomics data“. Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS470.

Der volle Inhalt der Quelle
Annotation:
Les progrès technologiques ont rendu possible le séquençage haute résolution du matériel génétique à faible coût. Dans ce contexte, le microbiome humain a démontré sa grande capacité à stratifier diverses maladies humaines. En tant que "super-intégrateur" de l'état du patient, le microbiote intestinal est appelé à jouer un rôle clé dans la médecine de précision. L'identification de biomarqueurs omiques est devenue un objectif majeur en métagénomique, et permet de comprendre les diversités microbiennes qui induisent la stratification des patients. Il reste de nombreux défis associés aux pipelines de métagénomique courants, qui prennent du temps et ne sont pas autonomes. Cela empêche l'utilisation de la métagénomique comme solution "point-of-care", comme dans les régions à ressources limitées. En effet, l'état de l'art de l'apprentissage à partir de données métagénomiques repose sur des projections lourdes en calcul des séquences sur de grands catalogues de référence génomique. Dans cette thèse, nous abordons ce problème en entraînant des réseaux neuronaux directement à partir des séquences brutes, en construisant un "embeddings" des métagénomes appelé Metagenome2Vec. Nous explorons également des algorithmes de découverte de sous-groupes que nous adaptons en classifieur avec une option de rejet qui délègue ensuite les échantillons n'appartenant à aucun sous-groupe à un algorithme supervisé. Plusieurs jeux de données sont utilisés dans les expériences sur diverses maladies (cancer colorectal, cirrhose, diabète, obésité) à partir du répertoire NCBI. Nos évaluations montrent que nos méthodes atteignent des performances élevées comparables à l'état de l'art
Technological advances have made high-resolution sequencing of genetic material possible at ever lower cost. In this context, the human microbiome (considered as our second "genome") has demonstrated its great capacity to stratify various human diseases. As a "super-integrator" of patient status, the gut microbiota is set to play a key role in precision medicine. Omics biomarkers identification has become a major goal of metagenomics processing, as it allows us to understand the microbial diversities that induce the patient stratification. There remain many challenges associated with mainstream metagenomics pipelines that are both time consuming and not stand-alone. This prevents metagenomics from being used as "point-of-care" solutions, especially in resource-limited or remote locations. Indeed, state-of-the-art approaches to learning from metagenomics data still relies on tedious and computationally heavy projections of the sequence data against large genomic reference catalogs. In this thesis, we address this issue by training deep neural networks directly from raw sequencing data building an embedding of metagenomes called Metagenome2Vec. We also explore subgroup discovery algorithms that we adapt to build a classifier with a reject option which then delegates samples, not belonging to any subgroup, to a supervised algorithm. Several datasets are used in the experiments to discriminate patients based on different diseases (colorectal cancer, cirrhosis, diabetes, obesity) from the NCBI public repository. Our evaluations show that our two methods reach high performance comparable to the state-of-the-art, while being respectively stand-alone and interpretable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Frouin, Arthur. „Lien entre héritabilité et prédiction de phénotypes complexes chez l’humain : une approche du problème par la régression ridge sur des données de population“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL027.

Der volle Inhalt der Quelle
Annotation:
Cette thèse étudie l'apport des méthodes d'apprentissage automatique pour la prédiction de phénotypes humains complexes et héritables, à partir de données génétiques en population. En effet, les études d'association à l'échelle du génome (GWAS) n'expliquent en général qu'une petite fraction de l'héritabilité observée sur des données familiales. Cependant l'héritabilité peut être approchée sur des données de population par l'héritabilité génomique, qui estime la variance phénotypique expliquée par l'ensemble des polymorphismes nucléotidiques (SNP) du génome à l'aide de modèles mixtes. Cette thèse aborde donc l'héritabilité du point de vue de l'apprentissage automatique et examine le lien étroit entre les modèles mixtes et la régression ridge. Notre contribution est double. Premièrement, nous proposons d'estimer l'héritabilité génomique en utilisant une approche prédictive via la régression ridge et la validation croisée généralisée (GCV). Deuxièmement, nous dérivons des formules simples qui expriment la précision de la prédiction par la régression ridge en fonction du rapport de la taille de la population et du nombre total de SNP, montrant clairement qu'une héritabilité élevée n'implique pas nécessairement une prédiction précise. L'estimation de l'héritabilité via GCV et les formules de précision de prédiction sont validées à l'aide de données simulées et de données réelles de UK Biobank. La dernière partie de la thèse présente des résultats sur des phénotypes qualitatifs. Ces résultats permettent une meilleure compréhension des biais des méthodes d'estimation d'héritabilité
This thesis studies the contribution of machine learning methods for the prediction of complex and heritable human phenotypes, from population genetic data. Indeed, genome-wide association studies (GWAS) generally only explain a small fraction of the heritability observed in family data. However, heritability can be approximated on population data by genomic heritability, which estimates the phenotypic variance explained by the set of single nucleotide polymorphisms (SNPs) of the genome using mixed models. This thesis therefore approaches heritability from a machine learning perspective and examines the close link between mixed models and ridge regression.Our contribution is twofold. First, we propose to estimate genomic heritability using a predictive approach via ridge regression and generalized cross validation (GCV). Second, we derive simple formulas that express the precision of the ridge regression prediction as a function of the size of the population and the total number of SNPs, showing that a high heritability does not necessarily imply an accurate prediction. Heritability estimation via GCV and prediction precision formulas are validated using simulated data and real data from UK Biobank. The last part of the thesis presents results on qualitative phenotypes. These results allow a better understanding of the biases of the heritability estimation methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie