Academic literature on the topic 'Formalismes à N-Corps'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Formalismes à N-Corps.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Formalismes à N-Corps"

1

Figuerêdo, Elysandra, and Antonio S. de Castro. "Um Problema de Três Corpos Analiticamente Solúvel." Revista Brasileira de Ensino de Física 23, no. 3 (September 2001): 289–93. http://dx.doi.org/10.1590/s1806-11172001000300006.

Full text
Abstract:
Analisamos um problema de três corpos interagindo mutuamente via forças harmônicas no contexto do formalismo newtoniano. Uma solução analítica exata para este problema é encontrada por meio de uma abordagem didática e os caminhos para a análise do problema de N corpos são indicados.
APA, Harvard, Vancouver, ISO, and other styles
2

Kostic, Aleksandar, Svetlana Ilic, and Petar Milin. "Probability estimate and the optimal text size." Psihologija 41, no. 1 (2008): 35–51. http://dx.doi.org/10.2298/psi0801035k.

Full text
Abstract:
Reliable language corpus implies a text sample of size n that provides stable probability distributions of linguistic phenomena. The question is what is the minimal (i.e. the optimal) text size at which probabilities of linguistic phenomena become stable. Specifically, we were interested in probabilities of grammatical forms. We started with an a priori assumption that text size of 1.000.000 words is sufficient to provide stable probability distributions. Text of this size we treated as a "quasi-population". Probability distribution derived from the "quasi-population" was then correlated with probability distribution obtained on a minimal sample size (32 items) for a given linguistic category (e.g. nouns). Correlation coefficient was treated as a measure of similarity between the two probability distributions. The minimal sample was increased by geometrical progression, up to the size where correlation between distribution derived from the quasi-population and the one derived from an increased sample reached its maximum (r=1). Optimal sample size was established for grammatical forms of nouns, adjectives and verbs. General formalism is proposed that allows estimate of an optimal sample size from minimal sample (i.e. 32 items).
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Formalismes à N-Corps"

1

Amblard, David. "Formalisme à N-corps GW environné dans une approche fragment : développements et applications à des systèmes complexes." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALY028.

Full text
Abstract:
Le formalisme GW, dans le cadre des théories de perturbation à N-corps utilisant les fonctions de Green, gagne en popularité pour la description des propriétés électroniques des systèmes de la matière condensée en physique du solide, et plus récemment en chimie. Son application à des systèmes complexes d'intérêt en nanoscience, chimie, voire biologie, est freinée cependant par son coût numérique en particulier dans le cas de systèmes désordonnés, ou immergés dans un environnement ouvert (un solvant, un milieu moléculaire, une électrode, etc.) Le but de cette thèse est de développer des techniques multi-échelles, combinant des approches à N-corps de haut niveau pour le sous-système d'intérêt, avec une description simplifiée, mais tout de même totalement ab initio, d'un environnement électrostatique et diélectrique. Ces approches vont donc au-delà des modèles classiques paramétrés, développés en particulier dans la communauté chimie quantique, et basés sur une description continue (« polarizable continuum model ») ou discrète (QM/MM) de l’environnement.Pour atteindre cet objectif, nous adoptons une approche en fragments de l'environnement, particulièrement adaptée aux systèmes moléculaires. La susceptibilité électronique non-interagissante devient ainsi diagonale par blocs, permettant d'abaisser la complexité algorithmique de quartique à cubique. Pour réduire le pré-facteur associé à l’obtention du potentiel écranté W (équation de Dyson), nous avons développé un algorithme de compression de l’opérateur susceptibilité. L’obtention automatique d’une base de polarisation très compacte permet de réduire fortement la taille des blocs de susceptibilité associés aux fragments de l'environnement. Cette méthode permet de calculer la réponse diélectrique de systèmes contenant des centaines de milliers d'atomes avec une excellente précision. Cette approche est présentée via l'étude de cristaux de fullerènes en volume, en surface, et en sous-surface.Alors que le formalisme GW est dynamique par nature, avec ainsi un potentiel coulombien écranté W dépendant de la fréquence, une première étude est réalisée dans le cadre d'une approximation statique (limite basse fréquence) pour décrire l’écrantage par l’environnement. Une telle approche s'inscrit dans la continuité des modèles semi-empiriques traditionnels pour la description d’un milieu environnant polarisable. Cette thèse est donc l'occasion de mesurer la validité d'une telle approximation, qui suppose que l’environnement répond de façon instantanée à une excitation électronique, grâce à une comparaison explicite avec une description totalement dynamique de la réponse diélectrique de l'environnement. L'étude d'une surface de fullerènes, ainsi que d'une molécule d'eau dans un nanotube de carbone métallique, montrent qu'une description statique de l'environnement induit des erreurs sur l'énergie de polarisation inférieure à 10% sous condition que le « repliement » de l’environnement soit correctement effectué.L'approche fragment est également appliquée à des cristaux covalents isolants, et en particulier au nitrure de bore hexagonal (h-BN). Nous avons illustré en particulier comment calculer les niveaux d’énergie de défauts ponctuels dans h-BN, dans la vraie limite diluée, et donnons les lois d’échelle pour la renormalisation de ces niveaux de la monocouche vers un nombre (n) de couches. Cette étude démontre qu’à l’instar des systèmes moléculaires, la fragmentation de systèmes covalents isolants est possible, en lien sans doute avec le caractère très courte portée de la susceptibilité dans ces systèmes.Ces développements, permettant l’extension d’approches quantiques à N-corps à des systèmes de plus en plus complexes, ont été implémentés dans le code beDeft, un code massivement parallèle pour l’étude des propriétés électroniques de systèmes de grande taille
The GW formalism, a Green’s function many-body perturbation theory, is growing in popularity for the description of the electronic properties of condensed matter systems in solid-state physics, and more recently chemistry. Unfortunately, its application to complex systems of interest in nanosciences, chemistry, or even biology, is hampered by the large associated computing cost, in particular in the case of disordered systems, or systems immersed in an opened environment (a solvent, a molecular medium, an electrode, etc.) The goal of the present PhD thesis is to focus on the development of multiscale techniques, merging high-level many-body treatments of the subsystem of interest, with a simplified but fully ab initio description of the electrostatic and dielectric environment. Such approaches aim to go beyond classical parametrized models, mainly developed in the quantum chemistry community, which are based on a continuum (“polarizable continuum model”) or discrete (QM/MM) description of the environment.To reach such a goal, we adopt a divide-and-conquer fragmentation scheme for the environment, particularly suited to molecular systems. This leads to a block-diagonal non- interacting electron susceptibility, decreasing the algorithmic complexity from quartic to cubic. To reduce the prefactor associated with the inversion of the Dyson equation for the screened Coulomb potential W, we have further developed a compression algorithm for the susceptibility operator. The automatic computation of an extremely compact polarization basis set allows a large reduction of the size of the susceptibility blocks, associated to the fragments in the environment. Such a method enables us to compute the dielectric response of systems made of several hundred thousand atoms, with an excellent accuracy when it comes to reproduce the effect of the environment as a response to an excitation in the immersed subsystem. This approach is presented through the study of fullerene bulk, surface and subsurface crystals.While the GW formalism is dynamical, with a frequency-dependent screened Coulomb potential W, a first study is done adopting a static approximation (low-frequency limit) for the screening properties of the environment. Such an approach follows the traditional semi-empirical models of a polarizable environment. This PhD thesis assesses the validity of such an approximation, which assumes an instantaneous response (adiabatic limit) of the environment to an electronic excitation, thanks to an explicit comparison with a fully dynamical dielectric response of the environment. The study of a surface of fullerenes, as well as a water molecule inside a metallic carbon nanotube, show that a static description of the environment leads to errors on the polarization energy below 10%, provided that the “folding” of the environment is treated in a proper way.The fragment approach is also applied to covalent insulator crystals, and more particularly to hexagonal boron nitride (h-BN). We explain how to compute the energy levels of point defects in h-BN, in the true dilute limit, and we give the asymptotic scaling laws for the renormalization of these energy levels, from the monolayer to a (n)-layer system. This study highlights thus the possibility to apply the fragment approach to covalent insulator systems, a possibility hinging probably on the short range behavior of the susceptibility in these systems.All of these developments, extending ab initio many-body methods to increasingly complex systems, have been implemented in the massively parallel code beDeft, dedicated to the study of the electronic properties of large scale systems
APA, Harvard, Vancouver, ISO, and other styles
2

Lasseri, Raphaël-David. "Distribution spatiale de fermions fortement corrélés en interaction forte : formalisme, méthodes et phénoménologie en structure nucléaire." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS248/document.

Full text
Abstract:
Le noyau est par essence un système complexe, composé de fermions composites fortement corrélés, soumis à la fois aux interactions forte, faible et électromagnétique. La description de sa structure interne est un enjeu important de la physique moderne. Ainsi la manière qu'ont les nucléons de s'organiser au sein des noyaux atomiques est le reflet des corrélations auxquelles ils sont soumis. On comprend alors que la complexité des interactions inter-nucléoniques se traduit par une grande richesse de schémas selon lesquels les nucléons se distribuent dans les systèmes nucléaires. Le noyau révèle une structure délocalisée où les nucléons se répartissent de façon quasi-homogène dans le volume nucléaire. Mais il peut également présenter des sous-structures localisées, appelées clusters ou agrégats nucléaires. Ces travaux s’inscrivent dans le cadre des approches de type champ-moyen relativiste (RMF), permettant un traitement universel de la phénoménologie nucléaire. Dans un premier temps, nous exposerons les éléments de formalisme permettant la construction d’une telle approche en partant des interactions fondamentales qui sous-tendent la dynamique nucléonique au sein des noyaux. Néanmoins ce formalisme ne permet pas de rendre compte des propriétés expérimentales des observables nucléaires : une stricte approche de type champ-moyen, néglige de trop nombreuses classes de corrélations. Nous discuterons alors des méthodes existantes pour prendre en compte ces corrélations, de type particule-trou (déformation) ainsi que de type particules-particules (appariement). Dans un premier temps, une nouvelle méthode diagrammatique, permettant une approche perturbative des corrélations est proposée ainsi qu’une implémentation automatisée associée basée sur une théorie combinatoire. Ensuite, nous reviendrons à un traitement phénoménologique des corrélations particules-trous, pour nous focaliser sur l’impact des corrélations particules-particules. En premier lieu nous discuterons le phénomène de formation de paires nucléoniques en utilisant le langage de la théorie des graphes, langage permettant plusieurs simplifications formelles ainsi qu’une compréhension différentes de l’appariement. Les corrélations d’appariement seront tout d’abord prise en compte par une approche de type Hartree-Bogolioubov relativiste. Toutefois ce formalisme ne conservant pas le nombre de particules, nous présenterons une approche projective permettant de le restaurer. L’effet de cette restauration sur le système sera également étudié. Seront ensuite présentés les différentes implémentations et optimisations numériques, développées pendant cette thèse, pour un traitement général des déformations nucléaires. Munis de ces outils, nous reviendrons sur la formation d’agrégats nucléaires, les clusters, comme phénomène émergent issu de la prise en compte de certaines classes de corrélations. Tout d’abord des mesures de localisations et paramètres quantifiant la dispersion des fonctions d’ondes nucléoniques sont proposées, permettant d’analyser le noyau pour localiser et comprendre l’origine de l’agrégation. L’analyse de ces quantités est présentée et permet la première description unifiée de la formation de clusters aussi bien dans les noyaux légers (Néon, Magnésium) que dans les noyaux lourds émetteurs alpha (Polonium). L’émergence des clusters est ensuite décrite au travers du prisme des transitions de phases quantiques. Un paramètre d’ordre est exhibé ainsi que la caractérisation de ce phénomène en tant que transition de Mott. L’influence des corrélations d’appariement sur la formation de clusters est analysée et une étude précise des propriétés spatiales des paires de nucléons est menée pour plusieurs noyaux dans différentes régions de masses. Enfin une méthode de prise en compte de corrélations à 4-corps, dite de quartet est proposée pour tenter d’expliquer l’émergence des clusters en tant que préformation de particules alpha
The atomic nucleus is intrinsically a complex system, composed of strongly correlated non-elementary fermions, sensitive to strong and electroweak interaction. The description of its internal structure is a major challenge of modern physics. In fact the complexity of the nucleon-nucleon interaction generates correlations which are responsible of the diversity of shapes that the nuclei can adopt. Indeed the nuclei can adopt either quasi-homogeneous shapes when nucleons are delocalized or shapes where spatially localized structure can emerge, namely nuclear clusters. This work is an extension of relativistic mean-fields approach (RMF), which allows an universal treatment of nuclear phenomenology. In a first time we will present the necessary formalism to construct such an approach starting with the fundamental interactions underlying nucleons dynamics within the nucleus. However this approach doesn't allow an accurate reproduction of experimental properties: a purely mean-field approach neglects to many correlations. Existing methods to treat both particle-hole (deformation), particle-particle (pairing) correlations will be discussed. First we will propose a new diagrammatic method, which take correlation into account in a perturbative way, the implementation of this approach using combinatory theory will be discussed. Then we will get back to a phenomenological treatment of particle-hole correlations, to focus on the impact of particle-particle. Formation of nucleonic pair will be discussed in the language of graph theory, allowing several formal simplifications and shed a different light on pairing. Pairing correlations will be at first treated using a relativistic Hartree-Bogolioubov approach. Nevertheless this formalism doesn't conserve particle number, and thus we will present a projective approach to restore it. The effect of this restoration will also be studied. Then to describe general nuclear deformation, several implementations and optimizations developed during this PhD will be presented. With this tools, clusterisation will be investigated as phenomenon emerging for certain class of correlations. Localization measure will be derived allowing a clearer understanding of cluster physics. The analysis of theses quantities makes possible a first unified description of cluster formation both for light nuclei (Neon) or for heavy alpha emitters (Polonium). Cluster emergence will be described as a quantum phase transition, an order parameter will be displayed and this formation will be characterized as a Mott transition. The influence of pairing correlations on cluster formation is studied and a detailed study of pairs spatial properties is performed for nuclei from several mass regions. Lastly a method allowing treatment of 4-body correlations (quartteting) is proposed to explain cluster emergence as alpha particle preformation
APA, Harvard, Vancouver, ISO, and other styles
3

Faber, Carina. "Electrons, excitons et polarons dans les systèmes organiques : approches ab initio à N-corps de type GW et Bethe-Salpeter pour le photovoltaïque organique." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENY047/document.

Full text
Abstract:
Cette thèse se propose d'explorer les mérites d'une famille d'approches de simulation quantique ab initio, les théories de perturbation à N-corps, pour l'exploration des propriétés électroniques et optiques de systèmes organiques. Nous avons étudié en particulier l'approximation dite de GW et l'équation de Bethe-Salpeter, très largement utilisées dès les années soixante pour les semiconducteurs de volume, mais dont l'utilisation pour les systèmes organiques moléculaires est très limitée. L'étude de quelques cas d'intérêt pour le photovoltaïque organique, et en particulier de petites molécules pour lesquelles sont disponibles des données expérimentales ou des résultats issus d'approches de chimie quantique, nous ont permis de valider ces approches issues de la physique du solide.Ce doctorat s'inscrit dans le cadre du développement d'un outil de simulation quantique spécifique (le projet FIESTA) dont l'objectif est de combiner les formalismes GW et Bethe-Salpeter avec les techniques de la chimie quantique, c'est-à-dire en particulier l'utilisation de bases localisées analytiques (bases gaussiennes) et des approches de type «résolution de l'identité» pour le traitement des intégrales Coulombiennes. Ce code est aujourd'hui massivement parallélisé, permettant, au delà des études de validation présentées dans ce travail de thèse, l'étude de systèmes complexes comprenant plusieurs centaines d'atomes. En cours de développement, l'incorporation d'approches hybrides combinant mécanique quantique et écrantage à longue portée par des approches modèles de milieu polarisable m'a permis d'une part de me familiariser avec le code et le développement méthodologique, et permet d'autre part d'envisager l'étude de systèmes réalistes en couplage avec leur environnement.Le manuscrit s‘ouvre sur une introduction au photovoltaïque organique afin de mettre en lumière les questionnements spécifiques qui requièrent le développement de nouveaux outils théoriques à la fois fiables en terme de précision et suffisamment efficaces pour traiter des systèmes de grande taille. Le premier chapitre est d'ordre méthodologique et rappelle les fondements des techniques ab initio de type champ-moyen (Hartree, Hartree-Fock et théorie de la fonctionnelle de la densité). En partant des principes de la photoémission, les théories de perturbation à N-corps et la notion de quasi-particule sont ensuite introduites, conduisant aux équations de Hedin et aux approximations GW et COHSEX. De même, à partir de la compréhension d'une expérience d'optique, le traitement des interactions électron-trou est présenté, menant à l'équation de Bethe-Salpeter. Le chapitre 2 introduit brièvement les spécificités techniques liées à l'implémentation des formalismes GW et Bethe-Salpeter. Les propriétés analytiques des bases gaussiennes et les principes mathématiques derrière les techniques de type «résolution de l'identité» et «déformation de contour», sont brièvement décrites. Le troisième chapitre présente les résultats scientifiques obtenus durant cette thèse. Le cas paradigmatique d'un polypeptide model nous permettra de discuter des spécificités de l'approche GW appliquée à des systèmes moléculaires afin d'obtenir des énergies de quasiparticule de bonne qualité. De même, l'utilisation de l'équation de Bethe-Salpeter pour l'obtention du spectre optique de ce système sera présentée, ainsi que le cas d'une famille de colorants d'importance pour les cellules de Graetzel (les coumarines). Finalement, nous explorons dans le cas du fullerène C60 et du graphène le calcul des termes de couplage électron-phonon dans le cadre de l'approche GW, c'est-à-dire au delà des approches standards de type théorie de la fonctionnelle de la densité. Notre étude vise à vérifier si une approximation statique et à écrantage constant au premier ordre permet de garder la qualité des résultats GW pour un coût numérique réduit. Après la conclusion, les appendices donnent le détail de certaines dérivations
The present thesis aims at exploring the properties and merits of the ab initio Green's function many-body perturbation theory (MBPT) GW and Bethe-Salpeter formalisms, in order to provide a well-grounded and accurate description of the electronic and optical properties of condensed matter systems. While these approaches have been developed for extended inorganic semiconductors and extensively tested on this class of systems since the 60 s, the present work wants to assess their quality for gas phase organic molecules, where systematic studies still remain scarce. By means of small isolated study case molecules, we want to progress in the development of a theoretical framework, allowing an accurate description of complex organic systems of interest for organic photovoltaic devices. This represents the main motivation of this scientific project and we profit here from the wealth of experimental or high-level quantum chemistry reference data, which is available for these small, but paradigmatic study cases.This doctoral thesis came along with the development of a specific tool, the FIESTA package, which is a Gaussian basis implementation of the GW and Bethe-Salpeter formalisms applying resolution of the identity techniques with auxiliary bases and a contour deformation approach to dynamical correlations. Initially conceived as a serial GW code, with limited basis sets and functionalities, the code is now massively parallel and includes the Bethe-Salpeter formalism. The capacity to perform calculations on several hundreds of atoms to moderate costs clearly paves the way to enlarge our studies from simple model molecules to more realistic organic systems. An ongoing project related to the development of discrete polarizable models accounting for the molecular environment allowed me further to become more familiar with the actual implementation and code structure.The manuscript at hand is organized as follows. In an introductory chapter, we briefly present the basic mechanisms characterizing organic solar cells, accentuating the properties which seek for an accurate theoretical description in order to provide some insight into the factors determining solar cell efficiencies. The first chapter of the main part is methodological, including a discussion of the principle features and approximations behind standard mean-field techniques (Hartree, Hartree-Fock, density functional theory). Starting from a description of photoemission experiments, the MBPT and quasiparticle ideas are introduced, leading to the so-called Hedin's equations, the GW method and the COHSEX approach. In order to properly describe optical experiments, electron-hole interactions are included on top of the description of inter-electronic correlations. In this context, the Bethe-Salpeter formalism is introduced, along with an excursus on time-dependent density functional theory. Chapter 2 briefly presents the technical specifications of the GW and Bethe-Salpeter implementation in the FIESTA package. The properties of Gaussian basis sets, the ideas behind the resolution of the identity techniques and finally the contour deformation approach to dynamical correlations are discussed. The third chapter deals with the results obtained during this doctoral thesis. On the electronic structure level, a recent study on a paradigmatic dipeptide molecule will be presented. Further, also its optical properties will be explored, together with an in-depth discussion of charge-transfer excitations in a family of coumarin molecules. Finally, by means of the Buckminster fullerene C60 and the two-dimensional semi-metal graphene, we will analyze the reliability of two many-body formalisms, the so-called static COHSEX and constant-screening approximation, for an efficient calculation of electron-phonon interactions in organic systems at the MBPT level. After a short conclusion, the Appendix containing details and derivations of the formalisms presented before closes this work
APA, Harvard, Vancouver, ISO, and other styles
4

Verrière, Marc. "Description de la dynamique de la fission dans le formalisme de la méthode de la coordonnée génératrice dépendante du temps." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS113/document.

Full text
Abstract:
La fission induite par neutron, découverte il y a plus de 70 ans, a de nombreuses applications, par exemple industrielles pour la production d'énergie, et intervient dans la nucléosynthèse. Cependant, sa description microscopique reste un problème ouvert. En effet, les degrés de liberté qui interviennent dans ce processus dynamique sont complexes. De plus, les noyaux fissiles ont un nombre élevé de nucléons en interaction (>200). Il s'agit donc d'un problème à N-corps quantique. Or, une résolution directe de ce dernier n'est pas possible à l'heure actuelle. Dans ce contexte, la description microscopique de la fission considérée ici est la suivante : la première étape consiste à déterminer un ensemble de configurations de champ moyen qui représentent différentes déformations du noyau, incluant ainsi explicitement les degrés de liberté collectifs qui leur sont associés. Dans la seconde étape, la dynamique est décrite dans cet espace de configurations en utilisant la méthode de la coordonnée génératrice dépendante du temps (TDGCM). L'approximation des recouvrements gaussiens (GOA) est alors utilisée. Cependant, elle introduit une erreur de modèle et limite les extensions comme par exemple la prise en compte explicite de degrés de liberté intrinsèques. Ce travail de thèse a pour objectif de décrire le processus de fission avec la TDGCM sans recourir à la GOA. Cela implique de résoudre l'équation de la dynamique en TDGCM appelée équation de Hill-Wheeler dépendante du temps (TD-HW). Les méthodes d'évaluations des matrices des recouvrements et du hamiltonien collectif sont présentées dans le cas d'une interaction de Gogny. La matrice des recouvrements représente la métrique de l'espace des configurations, et la matrice du hamiltonien collectif contient les couplages énergétiques entre les configurations. Les configurations sont exprimées dans des bases de particules deux à deux distinctes, introduisant des instabilités numériques dans les méthodes d'évaluation standard. Un formalisme adapté à ces bases est proposé permettant d'éliminer ces instabilités. Deux méthodes de résolution de TD-HW sont présentées. La première consiste à calculer l'opérateur d'évolution associé à l'équation de Hill-Wheeler dépendante du temps. Elle est adaptée à un faible nombre de configurations. La seconde utilise un schéma de discrétisation en temps permettant l'inclusion d'un plus grand nombre de configurations dans le modèle. Ce formalisme est ensuite appliqué à la description de la réaction de fission induite par neutron sur le plutonium 239, et une comparaison avec la TDGCM+GOA est effectuée
Nuclear fission, where an atomic nucleus separates into two fragments while emitting a large amount of energy, is at the core of many applications in society (energy production) and national security (deterrence, non-proliferation). It is also a key ingredient of the mechanisms of formation of elements in the universe. Yet, nearly 80 years after its experimental discovery its theoretical description in terms of the basic constituents of the nucleus (protons and neutrons) and their interaction remains a challenge. In this thesis, we describe the fission process as follows. In a first step, we use large supercomputers to compute the deformation properties of the nucleus based on our knowledge of nuclear forces. In a second step, we simulate the time evolution of the system from its ground state up to the fragments separation with a fully quantum-mechanical approach called the time-dependent generator coordinate method (TDGCM). While results are in good qualitative agreement with experimental data, the implementation of the TDGCM so far had been greatly simplified using what is known as the Gaussian overlap approximation (GOA). We also developed the formalism and a numerical implementation of the exact TDGCM - without the GOA. This will allow the first systematic validation of that approximation and an assessment of the resulting theoretical uncertainties. The second chapter presents the description of the neutron induced fission process using the TDGCM+GOA. The third one introduces the developments carried out in this thesis allowing the description of the fission process with the TDGCM without the GOA. The last chapter shows the first results obtained with this approach
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Formalismes à N-Corps"

1

Leontyeva, N. N., M. V. Ermakov, S. A. Krylov, S. Yu Semenova, and E. G. Sokolova. "ON TRADITIONAL CONCEPTION AND UPGRADING OF ONE APPLIED SEMANTIC DICTIONARY." In International Conference on Computational Linguistics and Intellectual Technologies "Dialogue". Russian State University for the Humanities, 2020. http://dx.doi.org/10.28995/2075-7182-2020-19-1049-1064.

Full text
Abstract:
The paper deals with upgrading of an electronic semantic dictionary of RUSLAN for automatic processing of Russian texts. The previous versions of the dictionary were created in the 1990-es and early 2000-es mainly for automatic processing of the Russian Federation’s state papers. Now the Authors inherit the basic formalism of the Dictionary, including the metalanguage and the structure of the dictionary entry. The current version is revised and enlarged in a number of ways. While the initial versions mostly predate the advent of corpus linguistics, the current version is based on corpus data. The Russian National Corpus was used as a source of sample sentences, as well as for determining statistically and empirically which linguistic information is pragmatically relevant. A structural representation for the sample sentences was designed, and a procedure for selecting lexical units from the corpus to use in a pragmatic description of polysemy. A formal representation of situations, previously outlined in the works of Nina N. Leontyeva, has also been detailed and largely realized. Among the lexicon, verbs in particular have received a more flexible description compared to the previous versions, and aspectual meanings are reflected with more nuance.
APA, Harvard, Vancouver, ISO, and other styles
2

Kurariya, Pavan, Prashant Chaudhary, Jahnavi Bodhankar, Lenali Singh, and Ajai Kumar. "Unveiling the Power of TAG Using Statistical Parsing for Natural Languages." In 4th International Conference on NLP Trends & Technologies. Academy & Industry Research Collaboration, 2023. http://dx.doi.org/10.5121/csit.2023.131407.

Full text
Abstract:
The Revolution of the Artificial Intelligence (AI) has started when machines could decipher enigmatic symbols concealed within messages. Subsequently, with the progress of Natural Language Processing (NLP), machines attained the capacity to understand and comprehend human language. Tree Adjoining Grammar (TAG) has become powerful grammatical formalism for processing Large-scale Grammar. However, TAG mostly rely on Grammar which is created by Languages expert and due to structural ambiguity in Natural Languages computation complexity of TAG is very high o(n^6). We observed that rules-based approach has many serious flaws, firstly, language evolves with time and it is impossible to create grammar which is extensive enough to represent every structure of language in real world. Secondly, it takes too much time and language resources to develop a practical solution. These difficulties motivated us to explore an alternative approach instead of completely rely on the rule-based method. In this paper, we proposed a Statistical Parsing algorithm for Natural Languages (NL) using TAG formalism where Parser makes crucial use of data driven model for identifying Syntactic dependencies of complex structure. We observed that using probabilistic model along with limited training data can significantly improve both the quality and performance of TAG Parser. We also demonstrate that the newer parser outperforms previous rule-based parser on given sample corpus. Our experiment for many Indian Languages, also provides further support for the claim that above mentioned approach might be an awaiting solution for problem that require rich structural analysis of corpus and constructing syntactic dependencies of any Natural Language without much depending on manual process of creating grammar for same. Finally, we present result of our on-going research where probability model will be applying to appropriate selection of adjunction of any given node of elementary trees and state chart representations are shared across derivation.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography