Academic literature on the topic 'Représentation moléculaire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Représentation moléculaire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Représentation moléculaire"

1

Antoine, Jean-Pierre. "Symétries en physique." Revue des questions scientifiques 190, no. 1-2 (January 1, 2019): 7–26. http://dx.doi.org/10.14428/qs.v190i1-2.69423.

Full text
Abstract:
Cet article passe en revue les multiples applications de la théorie des groupes aux problèmes de symétrie en physique. En physique classique, il s’agit surtout de la relativité : euclidienne, galiléenne, einsteinienne (relativité restreinte). Passant à la mécanique quantique, on remarque d’abord que les principes de base impliquent que l’espace des états d’un système quantique a une structure intrinsèque d’espace préhilbertien, que l’on complète ensuite en un espace de Hilbert. Dans ce contexte, la description de l’invariance sous un groupe G se base sur une représentation unitaire de G. On parcourt ensuite les différents domaines d’application : physique atomique et moléculaire, matière condensée, optique quantique, ondelettes, symétries internes, symétries approchées. On discute ensuite l’extension aux théories de jauge, en particulier au Modèle Standard des interactions fondamentales. On conclut par quelques indications sur des développements récents. * * * The present article reviews the multiple applications of group theory to the symmetry problems in physics. In classical physics, this concerns primarily relativity : Euclidean, Galilean, Einsteinian (special). Going over to quantum mechanics, we first note that the basic principles imply that the state space of a quantum system has an intrinsic structure of pre-Hilbert space, that one completes into a genuine Hilbert space. In this framework, the description of the invariance under a group G is based on a unitary representation of G. Next we survey the various domains of application : atomic and molecular physics, condensed matter physics, quantum optics, wavelets, internal symmetries, approximate symmetries. Next we discuss the extension to gauge theories, in particular to the Standard Model of fundamental interactions. We conclude with some remarks about recent developments.
APA, Harvard, Vancouver, ISO, and other styles
2

Michard, G., D. Jezequel, and E. Viollier. "Vitesses de réaction de dissolution et précipitation au voisinage de l'interface oxydo-réducteur dans un lac méromictique : le lac Pavin (Puy de Dôme, France)." Revue des sciences de l'eau 16, no. 2 (April 12, 2005): 199–218. http://dx.doi.org/10.7202/705504ar.

Full text
Abstract:
Une étude à l'échelle centimétrique de l'interface redox situé à la limite entre mixolimnion et monimolimnion d'un lac méromictique (le lac Pavin) a permis d'observer très finement l'évolution de la concentration d'un certain nombre d'éléments chimiques. Nous avons choisi de présenter ici des résultats concernant 5 éléments qui présentent des comportements très contrastés : le rubidium, le fer, le baryum, le vanadium et le manganèse. La comparaison avec un élément conservatif, le sodium, montre que Rb est conservatif, que Fe, Ba et V sont précipités et que Mn est dissous dans cette zone. Une modélisation de ces concentrations en vue de préciser à quelle profondeur et avec quelle vitesse se produisent les réactions concernant ces éléments nécessite la détermination des paramètres de transport au voisinage de cet interface. Une représentation analytique des concentrations de sodium permet de calculer le coefficient de diffusion turbulente Kz en fonction de la profondeur. Au voisinage de l'interface redox, ce coefficient est très petit (0,0017m2/jour) et inférieur au coefficient de diffusion thermique moléculaire. Les concentrations des éléments étudiés ont pu être représentés avec précisions par des polynômes en fonction de la concentration en sodium. Cela permet d'estimer les vitesses des réactions de précipitation dissolution en fonction de la profondeur. Le rubidium n'est affecté par aucune réaction. Le fer précipite entre 63 et 65 m, le baryum entre 68 et 72 m tandis que le vanadium précipite à la fois dans ces 2 zones. Le manganèse réagit dans une zone très étroite : il est précipité entre 61,5 et 62 m et dissous entre 62,8 et 63,1 m. Une étude similaire de tous les éléments majeurs (y compris pH et COD) pourrait permettre d'élucider les processus qui conduisent à ces comportements complexes.
APA, Harvard, Vancouver, ISO, and other styles
3

Chiricota, Yves. "Représentation symbolique d'espèces moléculaires." Theoretical Computer Science 117, no. 1-2 (August 1993): 131–36. http://dx.doi.org/10.1016/0304-3975(93)90308-g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Khanfour-Armalé, Rita, and Jean-François Le Maréchal. "Représentations moléculaires et systèmes sémiotiques." Aster 48, no. 1 (2009): 63–88. http://dx.doi.org/10.3406/aster.2009.1509.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Belaubre, Gilbert. "Approches méthodologiques et expérimentales des phénomènes complexes." Acta Europeana Systemica 4 (July 14, 2020): 143–64. http://dx.doi.org/10.14428/aes.v4i1.57343.

Full text
Abstract:
La complexité de la nature est multiforme, et il est nécessaire de mettre en oeuvre des approches méthodologiques variées pour tenir compte de cette variété. Les efforts de représentation et d’explication des phénomènes naturels nous conduisent toujours à rechercher, en priorité, des relations de proportionnalité entre les mesures de ce que nous considérons comme des variables pertinentes. La linéarité a été et reste la règle d’or de nos représentations. Mais beaucoup de phénomènes sont rebelles à cette réduction. Les ordinateurs nous aident aujourd’hui à intégrer des myriades de données et à bâtir des modèles non linéaires. Ils ne se substituent pas à la pensée heuristique du savant, mais ils allègent les calculs et permettent des tests d’hypothèses quasiment instantanés. Il a fallu de longs mois de calcul pour que Le Verrier définisse l’orbite d’Uranus. Aujourd’hui, les ordinateurs exécutent ces calculs en quelques microsecondes, et ils ne font pas d’erreurs. Les complexités auxquelles nous devons faire face sont de plusieurs ordres : 1– celles de la physique statistique et de l’astrophysique, 2– celle des constructions moléculaires complexes, qui sont les précurseurs des organismes vivants, 3– celle des morphogenèses et des embryogenèses, 4– celle de la complexité neuronale, de ses processus que nous appelons le mental, 5- celles des phénomènes sociaux chez les animaux inférieurs, 6– celle des animaux sociaux, y compris les humains, particulièrement compliqués par leurs capacité d’anticipation, donc d’interactions réciproques.
APA, Harvard, Vancouver, ISO, and other styles
6

Bigg, Charlotte. "Représentations de l’atome et visualisations de la réalité moléculaire." La Revue de la BNU, no. 6 (November 1, 2012): 32–41. http://dx.doi.org/10.4000/rbnu.2694.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Stavridou, Hélène, and Christine Solomonidou. "Représentations et conceptions des élèves grecs par rapport au concept d'équilibre chimique / Greek pupils' representations and conceptions about the chemical equilibrium concept." Didaskalia 16, no. 1 (2000): 107–34. http://dx.doi.org/10.3406/didas.2000.1089.

Full text
Abstract:
Le but de cette recherche était la détection et l’étude des représentations, des conceptions et des difficultés d’apprentissage des élèves grecs à propos du concept d’équilibre chimique. Cent soixante quinze élèves de 17-18 ans des filières scientifiques ont répondu par écrit aux six questions d’un questionnaire. Les résultats ont mis au jour que les élèves ont des difficultés à représenter des systèmes de substances en équilibre chimique au niveau moléculaire et au niveau empirique. Plusieurs élèves ont aussi des difficultés pour concevoir «l’histoire» d’un système, c’est-à-dire l’évolution dans le temps des substances initiales jusqu’à l’état d’équilibre, ainsi que le déplacement de l’équilibre chimique quand le système est perturbé. Souvent, ils font des prévisions basées sur des règles personnelles qu’ils ont développées, au lieu d’utiliser la loi de Le Chatelier et/ou la loi d’action de masse relative aux équilibres chimiques. La recherche d’éventuelles corrélations entre leurs représentations et leur performance en résolution de problème a mis au jour quelques sources possibles d’erreurs. Les conceptions des élèves ont été prises en compte pour la production d’un logiciel multimédia ayant comme but d’aider les élèves à surmonter leurs difficultés.
APA, Harvard, Vancouver, ISO, and other styles
8

Groux-Degroote, Sophie, François Foulquier, Sumeyye Cavdarli, and Philippe Delannoy. "Les mécanismes de régulation de la glycosylation." médecine/sciences 37, no. 6-7 (June 2021): 609–17. http://dx.doi.org/10.1051/medsci/2021082.

Full text
Abstract:
La glycosylation est l’une des modifications essentielles des protéines et des lipides. Elle s’effectue principalement dans le réticulum endoplasmique et l’appareil de Golgi et fait appel à une machinerie moléculaire spécifique, associant plusieurs centaines de glycosyltransférases, de glycosidases, de transporteurs et de protéines régulatrices. Des modifications de la glycosylation sont retrouvées dans certaines maladies, notamment dans les cancers. Ces altérations peuvent affecter toutes les formes de glycosylation réticulaires et/ou golgiennes, et conduire à des dysfonctionnements du métabolisme cellulaire. Dans cette revue, nous présentons l’état actuel des connaissances des mécanismes de la glycosylation. Nous illustrerons, au travers d’exemples représentatifs, comment l’altération de certains de ces mécanismes de régulation peut affecter les différentes formes de glycosylation des protéines et des lipides et participer au développement des cancers.
APA, Harvard, Vancouver, ISO, and other styles
9

Mukaminega, Jeanine. "Les études bibliques pourraient-elles bénéficier des nouveaux concepts des sciences naturelles ? Le cas des théologies de la conservation-restauration." Études théologiques et religieuses Tome 98, no. 4 (December 7, 2023): 481–504. http://dx.doi.org/10.3917/etr.984.0481.

Full text
Abstract:
En ce début du xxi e siècle, les théories et les débats sur les évolutions de l’humain et de ses sociétés sous le dictat du virtuel et du numérique fleurissent. On parle même de projet de posthumanité. Dans le même temps, les études critiques de la Bible s’essoufflent et se figent dans une forme d’intellectualisme alors que le lecteur croyant, quand il n’est pas pris en otage par les gourous, est de plus en plus désorienté par l’écart entre le vécu journalier et les représentations de l’univers spirituel dont il a hérité. Dans cet article, Jeanine Mukaminega part d’une intuition inspirée de deux innovateurs : Spinoza (1632-1677) qui tenta de rendre l’Écriture, matrice des représentations, à la liberté de la pensée, et Penrose (1931-) dont la théorie unifie le monde des sciences naturelles et celui de l’esprit humain. À travers une reprise des théologies bibliques de la conservation-restauration portées par les motifs mythiques du règne divin et des rois de filiation divine, l’auteure introduit les vieux concepts philosophiques de conscience, de mémoire et de structure dans le questionnement herméneutique du bibliste. En trois étapes, elle tente de lire le mythe du règne divin à l’aune de ces concepts revus par la physique, la neurologie et la biologie moléculaire. L’interrogation porte sur les réalités matérielle, structurale et procédurale convoquées par le mythe : l’univers du mythe biblique peut-il être soumis à l’investigation faisant appel aux nouveaux concepts qui redessinent notre perception de l’univers ?
APA, Harvard, Vancouver, ISO, and other styles
10

PEYRAUD, J. L., and F. PHOCAS. "Dossier " Phénotypage des animaux d'élevage "." INRAE Productions Animales 27, no. 3 (August 25, 2014): 179–1890. http://dx.doi.org/10.20870/productions-animales.2014.27.3.3065.

Full text
Abstract:
Avant-propos La demande mondiale en produits d’origine animale est en forte expansion1 et l’élevage est l’une des activités agricoles les plus fortement créatrices d’emploi et de valeur ajoutée, tant au niveau de la production et des services qu’elle utilise, que des filières de produits animaux. Mais dans le même temps, l’élevage doit faire face à des enjeux sociétaux qui nécessitent des évolutions importantes dans les modes de production : besoin de compétitivité encore accru, méthodes d’élevage contestées vis-à-vis des atteintes à l’environnement, du respect du bien-être animal et de l’usage des médicaments. Il s’agit de réfléchir ces défis au niveau européen et mondial. Produire plus, mieux et à moindre coût doit contribuer à assurer la sécurité alimentaire mondiale et à répondre aux attentes européennes en termes de systèmes de production et de marchés très diversifiés. L’Europe a ici une responsabilité toute particulière car si elle ne peut pas nourrir le monde, il est de sa responsabilité, en tant que région où la demande sociale est aujourd’hui la plus élevée, de montrer comment concilier production et environnement. Outre les innovations et les adaptations des systèmes d’élevage (cf. Numéro spécial de la revue « Quelles innovations pour quels systèmes d’élevage ? », Ingrand S., Baumont R. (Eds). INRA Prod. Anim., 27, 2), les réponses passent aussi par la recherche d’animaux qui soient d’une part, plus efficients pour transformer leur ration et plus faciles à élever dans une large gamme de conditions climatiques et de systèmes d’élevage et, d’autre part, adaptables face à des aléas climatiques, sanitaires ou économiques tout en préservant la santé, le bien-être et la qualité des produits. Par le passé, la recherche de la maximisation des performances de production (ex : vitesse de croissance, quantité de lait par lactation…) a conduit à des animaux de plus en plus spécialisés. Dans la plupart des filières, cette maximisation s’est accompagnée d’une dégradation des autres aptitudes d’élevage, aujourd’hui source d’inefficience en élevage. La recherche d’une plus grande robustesse (définie comme la capacité pour un animal d’exprimer son potentiel de production dans une large gamme d’environnements sans pour autant compromettre sa santé et son bien-être) devient une priorité. Dans le même temps,l’accès à des techniques d’exploration fonctionnelle toujours plus performantes, les innovations en cours d’appropriation ou à venir dans le domaine de la génomique ouvrent des perspectives d’investigation nouvelles plus précises. Dans ce contexte d’évolution des demandes et des possibilités d’investigation, les projets de recherche en sciences animales doivent être plus systémiques, prédictifs et permettre d’établir des relations fonctionnelles de plus en plus fines entre le phénotype des animaux, leur génotype et le milieu dans lequel il s'exprime. Face au développement spectaculaire des connaissances sur le génome, il y a un manque criant de connaissances sur l’expression des phénotypes, connaissances qui devraient permettre de répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales : i) une sélection éclairée vers des objectifs majeurs pour améliorer l’efficience de la production et la robustesse des génotypes, et ii) un élevage de précision qui valorise la variabilité individuelle des animaux pour gagner en efficience et en résilience à l’échelle du troupeau, ou pour améliorer la conduite des animaux d’un génotype donné. En effet, d’un coté les progrès réalisés par la sélection génomique permettent aujourd’hui de repenser les critères de sélection et de les diversifier tout en raccourcissant les délais entre la définition des objectifs et l’amélioration effective des cheptels, mais cette sélection entraine de nouveaux besoins de phénotypage car elle nécessite la caractérisation d’unepopulation de référence. D’un autre coté, la connaissance plus fine de l’animal associée aux technologies en émergence de l’élevage de précision permettra de mieux piloter la conduite d’élevage pour améliorer l’efficience de l’alimentation ou de la reproduction par une approche individuelle à l’animal, ainsi que par la production d’alertes à destination de l’éleveur pour un diagnostic précoce des troubles permettant d’anticiper les ajustements requis. Le phénotypage est ainsi l’un des principaux défis que doit relever les recherches en production animale et a été reconnu comme tel par l’INRA. Deux types de phénotypage peuvent être envisagés : le phénotypage des caractères d’intérêt socio-économique et le phénotypage de caractères plus élémentaires. Les phénotypes d’intérêt socio-économique constituent la finalité recherchée. Ils résultent de mécanismes faisant appel à des régulations complexes, ils sont d’autant plus onéreux à mesurer qu’il s’agit de critères zootechniques qui doivent être observés sur des pas de temps longs. La recherche de phénotypes plus élémentaires et plus proches du mécanisme causal rend plus facile l’identification des gènes responsables. Ce phénotypage fin implique de réaliser des mesures particulièrement approfondies et à des échelles élémentaires (au niveau moléculaire, cellulaire, tissulaire…) des caractéristiques biologiques de l’animal qui expliquent un phénotype complexe observé à l’échelle de l’animal. Le phénotypage à haut débit signifie qu’une méthode de mesure des phénotypes fiable, automatisable et rapide est établie de sorte que le processus de mesure permette de générer un grand nombre de données dans un laps de temps court. Le haut débit peut s’appliquer au phénotypage fin tout comme à celui des caractères d’intérêt zootechnique. Les contributions significatives qui pourront être attendues d’un phénotypage animal fin et à haut débit concernent la biologie prédictive, à savoir la prédiction des performances à partir de caractères simples observables précocement, nécessaire notamment à la gestion des produits, à la conduite de l’élevage et à la sélection animale. Ce dossier propose le fruit d’une réflexion globale des chercheurs de l’INRA sur les perspectives qu’offre le phénotypage des animaux pour répondre aux enjeux des productions animales. Cette réflexion a eu pour objectif de définir les grands enjeux de connaissance autour du phénotypage animal et de faire émerger les questions de recherches prioritaires, transversales ou spécifiques aux différentes filières animales ainsi que les verrous techniques qui sont soulevés. Cette réflexion a été conduite par un groupe de douze chercheurs2 des départements de « Génétique Animale », « Physiologie Animale et Systèmes d’Elevage » et « Santé Animale » travaillant dans des disciplines et sur des espèces variées, missionné par la Direction Scientifique Agriculture de l’INRA. La réflexion de ce groupe s’est appuyée sur celle d’un collectif plus large de chercheurs INRA travaillant sur les animaux d’élevage par le biais d’un séminaire organisé en mai 2013 ainsi que par la rédaction partagée des articles de ce dossier. L’amélioration de la robustesse des animaux d’élevage étant un objectif central, le premier article de ce dossier développe une approche systémique de la robustesse des animaux d’élevage pour répondre au mieux à une double finalité en termes d’exploitation de la variabilité des aptitudes animales pour la sélection et pour la conduite de l’élevage. Les recherches sur le phénotypage doivent être accompagnées d’une ontologie générique c’est-à-dire d’une représentation et d’un langage communs pour partager les données et les connaissances, ainsi que l’explicite le second article de ce numéro. L’objet des trois synthèses suivantes est de mettre en perspective les fronts de science (phénotypage du microbiote intestinal), les enjeux de connaissance et les verrous techniques encore à lever pour permettre des productions animales de qualité (phénotypage de la qualité des produits) et en quantité (phénotypage de l’efficacité alimentaire), à moindres coûts économique et environnemental. 1 Selon la FAO et l’OCDE, la progression de la consommation de protéines d’origine animale sur la planète devrait se poursuivre au rythme de + 2 à + 3%/an au cours de cette décennie. Sur la période 2000-2050, la consommation totale des viandes devrait progresser de l’ordre de + 70% pour une population en augmentation de + 20%. Selon les mêmes sources et pour la même période la consommation de lait et produits laitiers dans les pays émergents devrait passer de 45 à 78 kg par habitant.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Représentation moléculaire"

1

Mazière, Pierre. "Les fonctions biologiques moléculaires : représentation et modélisation des connaissances." Montpellier 1, 2004. http://www.theses.fr/2004MON13520.

Full text
Abstract:
Avec l'évolution des sciences du vivant, divers aspects ont été rattachés à la. Notion de fonctions biologiques. Depuis les fonctions anatomiques des organes jusqu'aux réactions chimiques catalysées par des enzymes, un même terme désigne encore aujourd'hui des propriétés n'appartenant pas aux mêmes échelles d'observation. Le flou introduit par cette hétérogénéité transparaît au travers des nombreuses bases de connaissance apparues ces dernières années. La représentation, des propriétés fonctionnelles des, molécules du vivant combine différentes méthodes dans l'objectif de décrire l'ensemble des aspects liés à la notion de fonctions biologiques. Pour autant, même combinées les unes aux autres, aucune ne parvient réellement à retranscrire la connaissance présente dans la littérature scientifique. Il en résulte une faible capacité à exploiter ces informations dans le cadre de travaux réalisés à grande échelle, tels que ceux rendus possibles par l'avènement des technologies dites à haut-débit. Si les approches analytiques ont permis d'élucider le fonctionnement de certains mécanismes biologiques en détaillant les propriétés fonctionnelles des molécules qui les réalisent, elles semblent demeurer inefficaces dans le cadre de l'intégration de ces mécanismes au sein, d'un système biologique complexe telle que la cellule. Après une revue des différents aspects se cachant derrière le terme fonctions biologiques, ce document s'attache à montrer la nécessité d'un changement de paradigme dans le but d'améliorer la retranscription des connaissances fonctionnelles 'associées à un système biologique comme la cellule. Au point de vue analytique, posant la question "de quoi est fait un système biologique ?", il semble intéressant de substituer le point de vue systémique: "que fait un système biologique ?". La concrétisation de cette évolution est illustrée par la présentation de deux composants importants du projet SiliCell dont l'objectif, à terme, est de mettre en place un environnement de simulation des processus biologiques à l'échelle moléculaire et cellulaire: Biopsi : ce formalisme est proposé comme un complément à certaines méthodes utilisées actuellement pour décrire la connaissance liées aux processus biologiques. Biopsi est basé sur un ensemble fini d'actions élémentaires dont la combinaison permet de reconstituer la complexIté des processus biologiques. La connaissance fonctionnelle ainsi retranscrite est conciliable avec une exploitation directe des informations, en particulier par des outils informatiques. Deux exemples illustrent les possibilités de traitement rendus accessibles par l'utilisation de Biopsi : la comparaison de la répartition des actions élémentaires utilisées par des organismes de stade' évolutif différent; et la comparaison fonctionnelle du cycle de Krebs tel qu'il est réalisé dans divers organismes. SiliBase : cette base de connaissance met l'accent sur la description des processus biologiques liés aux entités moléculaIres permettant les mécanismes du vivant. Elle exploite les propriétés d'organisation des connaissances fonctionnelles offertes par Biopsi et met en place plusieurs concepts permettant de valoriser les informations qu'elle présente.
APA, Harvard, Vancouver, ISO, and other styles
2

Robert, Jacques. "Représentation vectorielle de la dynamique des systèmes à n corps." Paris 13, 1990. http://www.theses.fr/1990PA132007.

Full text
Abstract:
On décrit un systeme a n corps se mouvant dans l'espace physique, par un vecteur de l'espace produit: r a la puissance 3n. Cette approche permet d'obtenir directement la décomposition du systeme en: centre de masse et systeme relatif, sans qu'on ait jamais à expliciter les coordonnées à employer. On extrait les grandeurs géométriques intrinsèques, telles que le rayon hyper sphérique, les rayons de giration, les axes d'inertie du systeme, etc. . . Cela conduit a diverses représentations (hyper sphérique, Eckart, Jacobi). Du vecteur-systeme sont ensuite dérivées les expressions lagrangiennes de l'énergie cinétique, puis le vecteur impulsion du systeme. Ses combinaisons avec le vecteur-systeme lui-même conduisent à des grandeurs angulaires variées, ainsi qu'a la forme hamiltonienne de l'énergie cinétique. L'étude des distances mutuelles entre particules est faite en introduisant un tenseur des vecteurs mutuels, adapte à l'introduction de l'énergie potentielle et des dissociations du systeme. La relation simple existant entre le tenseur des vecteurs mutuels et le vecteur-systeme permet d'injecter, dans la dynamique, les conditions asymptotiques du mouvement. Un procédé canonique de quantification, qui préserve la structure des résultats précédents, est mis en place. On donne enfin plusieurs exemples d'application: dissociations d'un systeme à trois corps, problèmes de dynamique moléculaire
APA, Harvard, Vancouver, ISO, and other styles
3

Ammar, Abdallah. "Représentation des états du continuum par des gaussiennes complexes : application aux processus d’ionisation atomiques et moléculaires." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0173.

Full text
Abstract:
Ce travail théorique se situe à la frontière de la physique moléculaire et de la chimie quantique. Il propose un développement méthodologique et numérique dont l’objectif principal est de représenter des fonctions d’onde du continuum par des gaussiennes complexes. Le but ultime est d’appliquer ces gaussiennes optimisées lors de la description de processus d’ionisation impliquant des molécules, où les intégrales multicentriques nécessaires pour évaluer les sections efficaces seraient calculées analytiquement. Pour y parvenir, nous avons développé un code de calcul efficace qui permet d’ajuster un ensemble de fonctions arbitraires, sur des distances radiales finies, avec des gaussiennes réelles ou complexes. Nous avons mis en évidence la supériorité des gaussiennes complexes par rapport aux gaussiennes réelles dans la représentation de fonctions oscillantes telles que les fonctions de Coulomb ou les fonctions sturmiennes généralisées d’énergie positive. Dans un premier temps, nous avons validé l’approche proposée pour décrire l’ionisation de l’atome d’hydrogène par impact d’électron (dans le cadre de la première approximation de Born) ou de photon (dans l’approximation dipolaire). Nous avons ensuite appliqué les gaussiennes complexes optimisées pour décrire le processus de photoionisation moléculaire, dans une approche monocentrique. Dans tous les cas, les calculs de sections efficaces sont analytiques. Les résultats numériques ont confirmé la fiabilité des gaussiennes complexes dans ce type d’applications. Finalement, nous avons exploré la possibilité d’étendre l’approche au cas des fonctions d’onde gaussiennes multicentriques pour l’état initial. De façon similaire au cas monocentrique, nous avons démontré que la nature complexe des gaussiennes n’empêche pas d’effectuer analytiquement les intégrales nécessaires pour évaluer les éléments de matrice de transition
This theoretical work lies at the border between molecular physics and quantum chemistry. It deals with a methodological and numerical development whose scope is to represent continuum wavefunctions by complex Gaussians. The ultimate goal is to apply these optimized Gaussians in the description of ionization processes involving molecules, where the multicenter integrals required to evaluate cross sections would be calculated analytically. For that purpose, we have developed an efficient numerical code to fit a set of arbitrary functions over finite radial distances, with either real or complex Gaussians. We have demonstrated the superiority of complex over real Gaussians in the representation of oscillating functions such as Coulomb functions or generalized Sturmian functions of positive energy. We have first validated the proposed approach to describe the ionization of the hydrogen atom by electron impact (in the first Born approximation) or photon impact (in the dipolar approximation). We have then applied the optimized complex Gaussians to describe molecular photoionization in a one-center approach. The results confirm the reliability of complex Gaussians in this kind of applications. Finally, we have considered the possibility of extending the approach to multicenter gaussian wavefunctions for the initial state. Similarly to the one-center case, we have shown that the multicenter integrals appearing in transition matrix elements can be performed analytically, also in the case of complex Gaussians
APA, Harvard, Vancouver, ISO, and other styles
4

Pinel, Philippe. "Docking and Machine Learning approaches to explore new scaffolds for molecules of therapeutic interest." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLM015.

Full text
Abstract:
La découverte de médicaments, de l'identification de candidats jusqu'au développement clinique, implique parfois de résoudre des problèmes de 'scaffold hopping', dans le but d'optimiser l'activité biologique, la sélectivité, les propriétés ADME, ou de réduire les préoccupations toxicologiques des molécules. Ils consistent à identifier des molécules actives dont les modes de liaison sont similaires mais dont les structures chimiques sont différentes de celles des actifs connus.Le 'large-step scaffold hopping', qui correspond au degré le plus élevé de différence structurelle avec la molécule initiale, nécessite l'aide de méthodes calculatoires. Le docking est considéré comme la méthode de choix pour l'identification de telles molécules isofonctionnelles. Cependant, la structure de la protéine peut ne pas être adaptée au docking en raison d'une faible résolution, voire être inconnue. Dans de tels cas, les approches 'ligand-based' sont prometteuses mais souvent insuffisantes car basées sur des descripteurs moléculaires n'ayant pas été spécifiquement développés pour le 'large-step scaffold hopping'. La résolution de ces problèmes se résume à l'identification de descripteurs correspondant à une représentation de l'espace chimique dans laquelle deux molécules qui sont des cas de 'scaffold hopping' sont similaires, bien qu'elles soient dissemblables dans l'espace représenté par les descripteurs basés principalement sur la structure chimique. Afin d'évaluer la capacité des descripteurs à les résoudre, nous avons constitué un ensemble de cas de 'scaffold hopping' de haute qualité comprenant des paires de molécules actives pour une variété de protéines. Nous avons ensuite proposé une stratégie pour évaluer la pertinence des descripteurs pour résoudre ces problèmes, correspondant à des cas réels où une molécule active est connue, et la seconde active est recherchée parmi un ensemble de molécules leurres choisies de manière à éviter les biais statistiques. Nous avons ainsi illustré les limites des descripteurs classiques 2D et 3D. Par conséquent, nous proposons l'Interaction Fingerprints Profile (IFPP), une représentation moléculaire qui capture les modes de liaison des molécules via des dockings sur un panel de protéines diverses. L'évaluation de cette représentation sur le benchmark démontre son intérêt pour l'identification de molécules isofonctionnelles. Cependant, son calcul coûteux limite sa mise à l'échelle pour le criblage de bibliothèques moléculaires très larges. Nous avons remedié à cela en tirant parti du Metric Learning, qui permet une estimation rapide des similarités des IFPP des molécules, fournissant ainsi une stratégie de pré-criblage efficace applicable à de larges bibliothèques. Nos résultats suggèrent que l'IFPP est un outil intéressant et complémentaire aux méthodes existantes afin de résoudre le 'scaffold hopping'
The challenges of drug discovery from hit identification to clinical development sometimes involves addressing scaffold hopping issues, in order to optimise molecular biological activity or ADME properties, improve selectivity or mitigate toxicology concerns of a drug candidate.They consist in identifying active molecules of similar binding modes but of different chemical structures to that of known active molecules. Large-step scaffold hopping, which corresponds to the highest degree of structural dissimilarity with the original hit, cannot be easily solved without the aid of computational methods. Docking is usually viewed as the method of choice for identification of such isofunctional molecules. However, the structure of the protein may not be suitable for docking because of a low resolution, or may even be unknown. In such cases, ligand-based approaches offer promise but are often inadequate to handle large-step scaffold hopping, because they are based on molecular descriptors that were not specifically developed for it. Solving those problems boils down to the identification of molecular descriptors corresponding to an embedding of the chemical space in which two molecules that are examples of large-step scaffold hopping cases are similar (i.e. close), although they are dissimilar (i.e. far) in the space embedded by molecular descriptors based principally on the chemical structure. To evaluate molecular descriptors to solve this particular challenging task, we built a high quality dataset of scaffold hopping examples comprising pairs of active molecules and including a variety of protein targets. We then proposed a strategy to evaluate the relevance of molecular descriptors to that problem, corresponding to real-life applications where one active molecule is known, and the second active is searched among a set of decoys chosen in a way to avoid statistical bias. We assessed how limited classical 2D and 3D descriptors are at solving these problems. Therefore, we introduced the Interaction Fingerprints Profile (IFPP), a molecular representation that captures molecules' binding modes based on docking experiments against a panel of diverse high-quality protein structures. Evaluation on the benchmark demonstrated its interest for identifying isofunctional molecules. Nevertheless, its computation is expensive, which limits its scalability for screening very large molecular libraries. We proposed to overcome this limitation by leveraging Metric Learning approaches, allowing fast estimation of molecules IFPP similarities, thus providing an efficient pre-screening strategy that is applicable to very large molecular libraries. Overall, our results suggest that IFPP provides an interesting and complementary tool alongside existing methods, in order to address challenging scaffold hopping problems effectively in drug discovery
APA, Harvard, Vancouver, ISO, and other styles
5

Steinmetz, David. "Représentation d'une huile dans des simulations mésoscopiques pour des applications EOR." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS521.

Full text
Abstract:
Les techniques de récupération assistée du pétrole par voie chimique consistent à injecter dans un réservoir pétrolier une formulation contenant des tensioactifs. Cette formulation permet de réduire la tension interfaciale eau/brut et ainsi de libérer l’huile piégée dans les pores de la roche. Les outils de simulations peuvent nous aider à améliorer ces techniques en nous apportant des connaissances sur les phénomènes se déroulant aux échelles moléculaires et mésoscopiques. Des méthodes de simulation moléculaire à l’échelle mésoscopique, la Dissipative Particle Dynamics et le Monte Carlo gros-grains, ont été utilisées pour prédire la tension interfaciale. Une approche de paramétrisation des interactions entre les molécules a été développée sur des équilibres liquide-liquide. Cette approche a été validée pour reproduire la composition des phases denses et pour prédire la tension interfaciale. Une méthodologie de représentation d’un brut a été développée. Le brut est séparé en fonction du nombre d’atomes de carbone en deux coupes : C20- et C20+. Une méthode de regroupement a été appliquée à la coupe C20- et une approche de reconstruction stochastique a été utilisée sur la coupe C20+. Une représentation a été obtenue avec 13 molécules représentatives. Les simulations de ce brut modèle fournissent des valeurs de tension interfaciale en bon accord avec les données expérimentales
Chemical enhanced oil recovery techniques consist of injecting into a petroleum reservoir an Alkaline/Surfactant/Polymer formulation. This formulation aims at mobilizing the oil trapped in the reservoir by reducing the water/crude oil interfacial tension. Molecular simulations are adapted to improve the efficiency of such a process by providing information about phenomena occurring at the molecular and mesoscopic levels. Mesoscopic simulation methods, Dissipative Particle Dynamics and coarse grained Monte Carlo, have been used to quantitatively predict the water/crude interfacial tension. An approach to parameterize interactions between entities has been developed using liquid-liquid ternary systems. This approach has been validated to reproduce compositions of bulk phases and to quantitatively predict the interfacial tension. A representation methodology of crude oil has been developed. The crude oil was divided according to the number of carbon atoms into two fractions: C20- and C20+. A lumping approach was applied to the C20- fraction and a stochastic reconstruction approach was employed on the C20+ fraction. A crude oil representation with only 13 representative molecules was so-obtained. Simulations of the parameterized crude oil model provides interfacial tension values that are in good agreement with available experimental data
APA, Harvard, Vancouver, ISO, and other styles
6

Vismara, Philippe. "Reconnaissance et représentation d'éléments structuraux pour la description d'objets complexes : application à l'élaboration de stratégies de synthèse en chimie organique." Montpellier 2, 1995. http://www.theses.fr/1995MON20253.

Full text
Abstract:
Dans cette these, nous nous interessons a l'analyse structurale d'objets complexes representables par des graphes, avec pour cadre d'application la synthese de molecules en chimie organique. Nous proposons une definition de l'ensemble cp des cycles pertinents d'un graphe (notamment moleculaire) par l'union des bases de cycles de taille minimale. Nous presentons un algorithme polynomial qui partionne cp en familles de cycles, chacune etant decrite par un cycle prototype. On peut alors enumerer tous les cycles de cp et determiner en temps polynomial son cardinal ou le nombre de cycles pertinents contenant un sommet donne. Nous completons l'analyse d'un graphe moleculaire par l'etude de la symetrie et la definition d'une representation abstraite decrivant les relations structurelles entre les divers motifs percus (cycles, chaines carbonees, etc. ). La suite de notre etude concerne la representation des elements structuraux dans un langage a objets et leur organisation sous la forme de hierarchies de graphes. Nous proposons une definition originale d'appariements diriges permettant de faciliter le raisonnement par classification realise sur ces hierarchies. L'ensemble de ces travaux est integre dans resyn, un prototype de systeme d'aide a la synthese organique
APA, Harvard, Vancouver, ISO, and other styles
7

Husson, Adrien. "Logical foundations of a modelling assistant for molecular biology." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7116.

Full text
Abstract:
Cette thèse concerne la “représentation exécutable du savoir”dans le domaine de la biologie moléculaire. Elle introduit les fondements d’un cadre logique appelé iota, dont le but est de décrire et rassembler des faits au sujet d’interactions entre protéines tout en offrant au modeleur la possibilité de compiler un fragment raisonnable de la logique vers un ensemble fini de règles de réécriture. On définit une logique FO[↓] qui décrit des transitions d’états cellulaires. Un état représente le contenu d’une cellule : les éléments du domaine sont des parties de protéines et les relations sont des liaisons entre protéines. L’opérateur logique unaire ↓sélectionne les transitions où un ensemble minimal de changements a lieu. Les formules qui parlent de transitions dénotent aussi des exécutions, c’est-à-dire des séquences finies ou infinies de transitions. Chaque formule de transition est de plus associée à un ensemble de règles de réécritures équipé d’une sémantique opérationnelle. On introduit deux système déductifs qui permettent de“typer” les formules. On montre que si une formule est typable dans le1er système, alors l’exécution des règles de réécriture qui lui sont associées produit exactement les exécutions dénotées par la formule ;et que si elle est typable dans le 2nd système, alors son système de règles associé est fini. On introduit une grammaire qui produit des formules typables dans les deux systèmes à équivalence logique près. Enfin, on étudie la décidabilité et l’expressivité de fragments de FO[↓]. On montre en particulier que les formules typables dans le second système sont définissables dans un petit fragment de FO, ce qui implique que l’opérateur ↓ peut alors être éliminé
This thesis addresses the issue of “Executable Knowledge Representation” in the context of molecular biology. We introduce the foundation of a logical framework, termed iota, whose aim is to facilitate knowledge collation of molecular interactions at the level of proteins and at the same time allows the modeler to “compile” a reasonable fragment of the logic into a finite set of executable graph rewriting rules. We define a logic FO[↓] over cell state transitions. States represent cell contents; domain elements are protein parts and relations are protein-protein bindings. The unary logical operator ↓ selects transitions where as little as possible happens. Formulas over transitions also denote runs, which are finite or infinite sequences of transitions. Every transition formula is moreover associated to a set of rewriting rules equipped with an operational semantics. We introduce two deductive systems that act as “typing” for formulas. We show that if a formula is typable in the first system then the execution of its associated rule set produces exactly the runs denoted by the formula, and that if it is typable in the second system then its associated rule set is finite. We introduce a grammar that produces formulas typable in both systems, up to logical equivalence. Finally we study decidability and definability properties of fragments of FO[↓]. In particular, we show that formulas typable in the second system are in a tight fragment of FO,which implies that the operator ↓ can then be eliminated
APA, Harvard, Vancouver, ISO, and other styles
8

Chardon, Gilles. "Approximations parcimonieuses et problèmes inverses en acoustique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://pastel.archives-ouvertes.fr/pastel-00732847.

Full text
Abstract:
Cette thèse présente d'une part, la construction d'approximations parcimonieuses de champs acoustiques, d'autre part l'utilisation de ces approximations pour la résolution de problèmes inverses. L'approximation de solutions de l'équation d'Helmholtz est étendue à des modèles de vibration de plaques, ce qui, entre autres, permet également de concevoir une méthode de calcul de mode propres alternative aux méthodes de référence. Différents problèmes inverses sont ensuite étudiés, en se basant sur ces résultats d'approximation. Le premier est l'holographie acoustique en champ propre, pour laquelle nous développons une nouvelle méthode de régularisation, ainsi qu'une antenne aléatoire permettant de réduire le nombre de mesures nécessaires à la reconstruction de déformées opérationnelles de plaques. Le deuxième problème inverse étudié est l'interpolation spatiale de réponses impulsionnelles de plaques, où nous montrons qu'en mesurant le champ vibratoire sur un ensemble d'échantillons bien choisi (justifié par une analyse théorique), les réponses impulsionnelles d'une plaque peuvent être obtenues avec moins de mesures que demandées par le théorème d'échantillonnage de Shannon. Enfin, le problème de la localisation de sources dans un espace clos réverbérant est étudié. Nous montrons qu'en utilisant des modèles parcimonieux d'ondes, la localisation est possible sans connaissances a priori sur les conditions aux limites du domaine de propagation des ondes.
APA, Harvard, Vancouver, ISO, and other styles
9

Cherfi, Hacène. "Etude et réalisation d'un système d'extraction de connaissances à partir de textes." Phd thesis, Université Henri Poincaré - Nancy I, 2004. http://tel.archives-ouvertes.fr/tel-00011195.

Full text
Abstract:
Ce travail de thèse porte sur la problématique d'extraction de connaissances à partir de textes, plus communément appelée la fouille de textes (FdT). Il s'articule autour des problèmes liés à l'analyse des textes, la fouille de textes proprement dite, et l'interprétation des éléments de connaissances extraits. Dans ce cadre, un système d'extraction des connaissances nécessaires pour analyser les textes en fonction de leur contenu est étudié et implanté. Les méthodes de fouille de données appliquées sont la recherche de motifs fréquents (avec l'algorithme Close) et l'extraction de règles d'association. Le mémoire s'attache à définir précisément le processus de fouille de textes et ses principales caractéristiques et propriétés en s'appuyant sur l'extraction de motifs fréquents et de règles d'association. En outre, une étude minutieuse d'un ensemble donné de mesures de qualité qu'il est possible d'attacher aux règles d'association est menée, toujours dans le cadre de la fouille de textes. Il est montré quel rôle ces mesures peuvent avoir sur la qualité et sur l'interprétation des règles extraites ; comment peuvent-elles influer sur la qualité globale du processus de fouille de textes.
L'utilisation d'un modèle de connaissances vient appuyer et surtout compléter cette première approche. Il est montré, par la définition d'une mesure de vraisemblance, l'intérêt de découvrir de nouvelles connaissances en écartant les connaissances déjà répertoriées et décrites par un modèle de connaissances du domaine. Les règles d'association peuvent donc être utilisées pour alimenter un modèle de connaissances terminologiques du domaine des textes choisi. La thèse inclut la réalisation d'un système appelé TAMIS : "Text Analysis by Mining Interesting ruleS" ainsi qu'une expérimentation et une validation sur des données réelles de résumés de textes en biologie moléculaire.
APA, Harvard, Vancouver, ISO, and other styles
10

Laumonnerie, Christophe Pascal. "Mécanismes moléculaires contrôlant la formation des représentations topographiques au sein du système trigéminal murin." Strasbourg, 2010. http://www.theses.fr/2010STRA6284.

Full text
Abstract:
L’information somatosensorielle de la face est relayée par le circuit du trijumeau puis projette dans le tronc cérébral, le thalamus et le cortex de manère somatotopique. Chez la souris, une majeure partie est dédiée aux vibrisses. L’information sensorielle de chacune des vibrisses projette au cerveau de manière topographique, définissant des modules neuronaux spatialement organisés, constituant ainsi une connectivité dite « point à point ». Malgré tout, les mécanismes moléculaires régulant la spécificité positionnelle de ces projections au cours du développement restent méconnus. Ici, nous avons observé que la branche maxillaire du ganglion trijumeau relaye et organise de manière topographique ses projections aux noyaux sensoriels du tronc cérébral dès les stages embryonnaires précoces. De plus, nous avons démontré que, chez des mutants présentant des rangées de vibrisses ectopiques sur la mâchoire inférieure, les neurones sensoriels de la branche mandibulaire du trijumeau acquièrent des caractéristiques moléculaires de type maxillaire. Néanmoins, la présence des vibrisses ectopiques et ces modifications moléculaires ne sont pas suffisante pour organiser topographiquement leurs projections centrales. D’autre part, nous avons montré que l’expression du facteur de transcription Hoxb2 au cours du développement du noyau principal trijumeau est requise pour établir une topographie précise dans l’organisation des rangées de barrelettes. Ces résultats apportent conjointement de nouveaux indices sur l’importance de mécanismes intrinsèques au niveau central par rapport aux informations périphériques de la face dans le processus de construction de carte somatosensorielle cérébrale
Somatosensory input from distinct face regions is relayed through the trigeminal circuit and serially wired to the brainstem, thalamus and cortex. In the mouse, a large portion of the face representation in the brain is devoted to the whiskers. Sensory inputs from individual whiskers are relayed and somatotopically mapped at each level of the brain pathway as spatially ordered sets of whisker-related neuronal modules, generating point-to-point connectivity maps. Little is still known about the molecular mechanisms involved in the generation of such brain whisker-related patterns. Here, we find that the trigeminal nerve maxillary branch generates a topographic map of whisker-related trigeminal primary afferent connectivity in brainstem nuclei from prenatal stages. We further show that in Edn1 mutant mice, which display an ectopic whisker pad in place of the lower jaw, mandibular primary trigeminal neurons acquire maxillary-like molecular features upon innervation of the ectopic whisker arrays. Nonetheless, despite these molecular changes, the presence of an ectopic whisker pad is not sufficient to impose ectopic whisker-related patterns in brainstem target nuclei. Conversely, we show that Hoxb2 expression in the developing brainstem principal trigeminal nucleus is required to establish precise row- and whisker-related topography of primary afferent targeting and barrelette pattern. These results provide novel and unanticipated insights into the relative importance of intrinsic patterning mechanisms at brainstem level versus facial peripheral inputs in the building of a cerebral somatosensory map
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Représentation moléculaire"

1

Fetizon, Marcel. Théorie des groupes et de leurs représentations: Applications à la spectroscopie moléculaire. Paris: Ellipses, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography