Tesis sobre el tema "Méthodes efficaces"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Méthodes efficaces.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Méthodes efficaces".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Ben, Zineb Tarik. "Méthodes numériques efficaces pour la valorisation des GMWB". Palaiseau, Ecole polytechnique, 2012. http://www.theses.fr/2012EPXX0091.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ferran, Ghislain. "Nouvelles méthodes numériques pour le traitement des sections efficaces nucléaires". Palaiseau, Ecole polytechnique, 2014. https://tel.archives-ouvertes.fr/tel-01077764/document.

Texto completo
Resumen
Les données nucléaires décrivent les interactions d'une particule avec la matière et sont de ce fait au cœur des calculs de physique nucléaire. Après avoir été mesurées et évaluées, elles sont fournies dans des bibliothèques, sous forme d'une liste de paramètres. Leur utilisation ultérieure dans les codes de calcul nécessite un traitement numérique prenant en compte plusieurs phénomènes physiques. Divers logiciels, comme NJOY, existent pour faire ce traitement, mais ils emploient des méthodes numériques datées dérivant d'algorithmes semblables. Or, pour les applications de sûreté nucléaire, il est important de disposer de méthodes indépendantes, pour avoir un point de comparaison et bien identifier les effets du traitement sur les résultats. De plus, la précision doit être correctement contrôlée au cours des différentes étapes du processus. Ainsi, le but de ce doctorat est de développer des méthodes numériques indépendantes garantissant le traitement des données nucléaires avec une précision donnée et de les implémenter en pratique via l'écriture du code GAIA. La première étape a consisté à reconstruire les sections efficaces à partir des paramètres des bibliothèques, en utilisant les diverses approximations de la théorie de la matrice R. La reconstruction avec le formalisme général, sans approximation, a également été implémentée, ce qui a nécessité l'élaboration d'une nouvelle méthode de calcul de la matrice R. Les tests, réalisés sur l'ensemble des formalismes possibles, y compris le plus moderne, montrent un bon accord entre GAIA et NJOY. Le calcul direct des sections efficaces différentielles à partir des paramètres de la matrice R, avec la formule de Blatt-Biedenharn, a également été implémenté et testé. Les sections ainsi obtenues correspondent à un noyau cible fixe, au zéro absolu. Du fait de l'agitation thermique, ces sections efficaces sont soumises à un effet Doppler, ce qui revient à les intégrer avec le noyau de Solbrig. Pour calculer cette intégrale, une méthode de référence, précise mais lente, a d'abord été élaborée et validée. Puis, une méthode basée sur l'algorithme de transformée de Fourier rapide a été développée. Les comparaisons avec la référence suggèrent que cette nouvelle méthode permet d'obtenir des résultats plus précis que NJOY en des temps de calcul comparables. Cette approche a de plus été adaptée pour le cas des noyaux cibles dans un état condensé (solide ou liquide). Une implémentation alternative a été développée pour obtenir les sections par intégration de la loi S(a,b), qui caractérise l'effet des liaisons chimiques sur les collisions neutrons–matière. Enfin, un procédé a été mis en place pour générer une grille d'énergie permettant l'interpolation linéaire des sections entre ses points. À ce stade, l'information minimale nécessaire à la production des fichiers d'entrée pour le code de calcul neutronique MCNP est connue (cette information est traduite au format adéquat avec l'aide d'un module de NJOY). Des calculs ont ensuite été réalisés sur plusieurs configurations afin de démontrer que les méthodes développées ici peuvent être effectivement utilisées pour le traitement d'évaluations modernes. En parallèle, dans le cadre d'une collaboration avec l'Institut Laue-Langevin, nous avons participé au traitement de mesures expérimentales de la loi S(a,b) de l'eau légère et lourde. À l'aide de GAIA, nous avons combiné les valeurs expérimentales avec des valeurs provenant d'une simulation de dynamique moléculaire, l'objectif étant de se passer de modèle moléculaire dans le domaine couvert par l'expérience. Ce n'est qu'une première étape, mais les valeurs obtenues permettent d'améliorer les prévisions du modèle du réacteur de l'ILL. En conclusion, ce doctorat a permis de développer de nouvelles méthodes numériques pour le traitement des données nucléaires et de montrer leur applicabilité à des cas pratiques
Nuclear data allow to describe how a particle interacts with matter. These data are therefore at the basis of neutron transport and reactor physics calculations. Once measured and evaluated, they are given in libraries as a list of parameters. Before they can be used in neutron transport calculations, processing is required which includes taking into account several physical phenomena. This can be done by several softwares, such as NJOY, which all have the drawback to use old numerical methods derived from the same algorithms. For nuclear safety applications, it is important to rely on independent methods, to have a comparison point and to isolate the effects of the treatment on the final results. Moreover, it is important to properly master processing accuracy during its different steps. The objective of this PhD is then to develop independent numerical methods that can guarantee nuclear data processing within a given precision and to implement them practically, with the creation of the GAIA software. Our first step was the reconstruction of cross sections from the parameters given in libraries, with different approximations of the R-matrix theory. Reconstruction using the general formalism, without any approximation, has also been implemented, which has required the development of a new method to calculate the R-matrix. Tests have been performed on all existing formalisms, including the newest one. They have shown a good agreement between GAIA and NJOY. Reconstruction of angular differential cross sections directly from R-matrix parameters, using the Blatt-Biedenharn formula, has also been implemented and tested. The cross sections we have obtained at this point correspond to a target nucleus at absolute zero temperature. Because of thermal agitation, these cross sections are subject to a Doppler effect that is taken into account by integrating them with Solbrig's kernel. Our second step was then to calculate this integral. First, we have elaborated and validated a reference method that is precise but slow. Then, we have developed a new method based on Fast Fourier Transform algorithm. Comparisons with the reference method suggest that the precision of our method is better than the one achieved with NJOY, with comparable computation times. Besides, we have adapted this method to the case where target nuclei are in a condensed state (solid or liquid). For this latter case, an alternative implementation was done to obtain cross sections by integrating the S(a,b) law that characterize the chemical binding effect on collisions between neutrons and matter. Finally, a method was developed to generate an energy grid fine enough to allow a linear interpolation of cross sections between its points. At this point, we have at our disposal the minimum amount of information required to produce input files for the Monte-Carlo transport code MCNP. Such data have been translated into the correct format thanks to a module of NJOY. Calculations have been performed using our input files on several configurations, to demonstrate that our methods can actually be used to process modern evaluated files. In parallel, as part of a collaboration with Institut Laue-Langevin, we have participated in the treatment of experimental measurements of the S(a,b) law for light and heavy water. With GAIA, we have combined experimental values with values from a molecular dynamics simulation, with the objective to avoid using a molecular model in the domain where experimental values are available. This has only been a first step, but the values obtained improves the predictions of the model of ILL reactor. As a conclusion, during this PhD, new numerical methods were developed and we have shown that they can be used in practical cases
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Bonazzoli, Marcella. "Méthodes d'ordre élevé et méthodes de décomposition de domaine efficaces pour les équations de Maxwell en régime harmonique". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4067/document.

Texto completo
Resumen
Les équations de Maxwell en régime harmonique comportent plusieurs difficultés lorsque la fréquence est élevée. On peut notamment citer le fait que leur formulation variationnelle n’est pas définie positive et l’effet de pollution qui oblige à utiliser des maillages très fins, ce qui rend problématique la construction de solveurs itératifs. Nous proposons une stratégie de solution précise et rapide, qui associe une discrétisation par des éléments finis d’ordre élevé à des préconditionneurs de type décomposition de domaine. La conception, l’implémentation et l’analyse des deux méthodes sont assez difficiles pour les équations de Maxwell. Les éléments finis adaptés à l’approximation du champ électrique sont les éléments finis H(rot)-conformes ou d’arête. Ici nous revisitons les degrés de liberté classiques définis par Nédélec, afin d’obtenir une expression plus pratique par rapport aux fonctions de base d’ordre élevé choisies. De plus, nous proposons une technique pour restaurer la dualité entre les fonctions de base et les degrés de liberté. Nous décrivons explicitement une stratégie d’implémentation qui a été appliquée dans le langage open source FreeFem++. Ensuite, nous nous concentrons sur les techniques de préconditionnement du système linéaire résultant de la discrétisation par éléments finis. Nous commençons par la validation numérique d’un préconditionneur à un niveau, de type Schwarz avec recouvrement, avec des conditions de transmission d’impédance entre les sous-domaines. Enfin, nous étudions comment des préconditionneurs à deux niveaux, analysés récemment pour l’équation de Helmholtz, se comportent pour les équations de Maxwell, des points de vue théorique et numérique. Nous appliquons ces méthodes à un problème à grande échelle qui découle de la modélisation d’un système d’imagerie micro-onde, pour la détection et le suivi des accidents vasculaires cérébraux. La précision et la vitesse de calcul sont essentielles dans cette application
The time-harmonic Maxwell’s equations present several difficulties when the frequency is large, such as the sign-indefiniteness of the variational formulation, the pollution effect and the problematic construction of iterative solvers. We propose a precise and efficient solution strategy that couples high order finite element (FE) discretizations with domain decomposition (DD) preconditioners. High order FE methods make it possible for a given precision to reduce significantly the number of unknowns of the linear system to be solved. DD methods are then used as preconditioners for the iterative solver: the problem defined on the global domain is decomposed into smaller problems on subdomains, which can be solved concurrently and using robust direct solvers. The design, implementation and analysis of both these methods are particularly challenging for Maxwell’s equations. FEs suited for the approximation of the electric field are the curl-conforming or edge finite elements. Here, we revisit the classical degrees of freedom (dofs) defined by Nédélec to obtain a new more friendly expression in terms of the chosen high order basis functions. Moreover, we propose a general technique to restore duality between dofs and basis functions. We explicitly describe an implementation strategy, which we embedded in the open source language FreeFem++. Then we focus on the preconditioning of the linear system, starting with a numerical validation of a one-level overlapping Schwarz preconditioner, with impedance transmission conditions between subdomains. Finally, we investigate how two-level preconditioners recently analyzed for the Helmholtz equation work in the Maxwell case, both from the theoretical and numerical points of view. We apply these methods to the large scale problem arising from the modeling of a microwave imaging system, for the detection and monitoring of brain strokes. In this application accuracy and computing speed are indeed of paramount importance
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Campos, Ciro Guillermo. "Développement de méthodes d'ordonnancement efficaces et appliquées dans un système de production mécanique". Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0035/document.

Texto completo
Resumen
L’évolution continue des environnements de production et l’augmentation des besoins des clients, demandent un processus de production plus rapide et efficace qui contrôle plusieurs paramètres en même temps. Nous nous sommes intéressés au développement de méthodes d’aide à la décision qui permettent d’améliorer l’ordonnancement de la production. L’entreprise partenaire (Norelem) fabrique des pièces de précision mécanique, il faut donc prendre en compte les différentes contraintes de ressources (humaines et d’outillage) existantes dans l’atelier de production.Nous avons abordé l’étude d’un atelier d’ordonnancement de type open shop ou chemin ouvert, où une tâche peut avoir de multiples séquences de production puisque l’ordre de fabrication n’est pas fixé et l’objectif à minimiser est le temps total de séjour. Des contraintes d’affectation de ressources humaines (multi-compétences) et de disponibilité d’outillage ont été prises en compte.Des modèles mathématiques linéaires et non-linéaires ont été développés pour décrire la problématique. Etant donné que les méthodes exactes sont limitées aux instances de petites tailles à cause des temps de calcul, des méthodes de résolution approchées ont été proposées et comparées. De plus, nous avons abordé l’optimisation multi-objectif en considérant trois objectifs, la minimisation du temps total de séjour et l’équilibrage de charge des ressources (humaines et machines).L’efficacité des méthodes est prouvée grâce à des tests sur des instances théoriques et l’application au cas réel
The continuous evolution of manufacturing environments and the growing of customer needings, leads to a faster and more efficient production process that controls an increasing number of parameters. This thesis is focused on the development of decision making methods in order to improve the production scheduling. The industrial partner (Norelem) produces standardized mechanical elements, so many different resource constraints (humans and tools) are presented in its workshop.We study an open shop scheduling problem where one job can follow multiple production sequences because there is no fixed production sequence and the objective function is to minimize the total flow time. In addition, multi-skilled personnel assignment and tool’s availability constraints are involved.Mathematical models: linear and non-linear formulations have been developed to describe the problem. Knowing the exact method limitations in terms of instance sizes because of the duration, heuristics methods have been proposed and compared. Besides that, the multi-objective optimization was exposed to deal with three objectives as total flow time minimization and workload balancing concerning both, humans and machines.The efficiency of these methods was proved by several theoretical instance tests and the application on the real industrial case
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Texto completo
Resumen
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Benki, Aalae. "Méthodes efficaces de capture de front de pareto en conception mécanique multicritère : applications industrielles". Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00959099.

Texto completo
Resumen
Dans le domaine d'optimisation de forme de structures, la réduction des coûts et l'amélioration des produits sont des défis permanents à relever. Pour ce faire, le procédé de mise en forme doit être optimisé. Optimiser le procédé revient alors à résoudre un problème d'optimisation. Généralement ce problème est un problème d'optimisation multicritère très coûteux en terme de temps de calcul, où on cherche à minimiser plusieurs fonctions coût en présence d'un certain nombre de contraintes. Pour résoudre ce type de problème, on a développé un algorithme robuste, efficace et fiable. Cet algorithme, consiste à coupler un algorithme de capture de front de Pareto (NBI ou NNCM) avec un métamodèle (RBF), c'est-à-dire des approximations des résultats des simulations coûteuses. D'après l'ensemble des résultats obtenus par cette approche, il est intéressant de souligner que la capture de front de Pareto génère un ensemble des solutions non dominées. Pour savoir lesquelles choisir, le cas échéant, il est nécessaire de faire appel à des algorithmes de sélection, comme par exemple Nash et Kalai-Smorodinsky. Ces deux approches, issues de la théorie des jeux, ont été utilisées pour notre travail. L'ensemble des algorithmes sont validés sur deux cas industriels proposés par notre partenaire industriel. Le premier concerne un modèle 2D du fond de la canette (elasto-plasticité) et le second est un modèle 3D de la traverse (élasticité linéaire). Les résultats obtenus confirment l'efficacité de nos algorithmes développés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Garstecki, Lukasz. "Méthodes efficaces de test de conformité fonctionelle pour les bibliothèques de programmation parallèle et distribuée". Grenoble INPG, 2004. http://www.theses.fr/2004INPG0068.

Texto completo
Resumen
Cette thèse présente une méthodologie complète de création de Suites de Tests de Conformité pour les langages de programmation, bibliothèques et APIs, une attention particulière étant portée aux bibliothèques de programmation parallèles et distribuées. L'auteur a commencé sa recherche dans le domaine du test de conformité pour les bibliothèques de programmation parallèle et distribuée, mais la méthodologie Consecutive Confinements Method (CoCoM), inventée par l'auteur, s'est révélée assez générale pour être appliquée à une large classe de bibliothèques de programmation, langages et APIs, y compris les modèles de programmation séquentiels et non séquentiels basés sur la programmation impérative. La méthodologie CoCoM est basée sur des notions définies dans la norme internationale ISO/IEC 13210: Information Technology , - Requirements and Guidelines for Test Methods Specifications and Test Method Implementations for Measuring Conformance to POSIX Standards, et à laquelle est fournit des extensions. CoCoM peut être vue comme un cadre général où différentes méthodologies et des outils variés peuvent être incorporés, permettant une adaptation à n'importe quel formalisme spécifique, pour lequel un moteur de traitement est fourni en support. Dans le cadre de sa thèse, l'auteur a développé une maquette d'outil appelé CTS Designer, qui implémente des parties importantes de la norme ISO/IEC 13210 et de la méthodologie CoCoM et qui peut être considéré comme le principal composant intégrateur du cadre formel mentionné ci-dessus
The thesis presents a complete methodology for creating Conformance Test Suites for programming languages, libraries and APIs, with a special attention to parallel and distributed programming libraries. Author has started his research in the field of conformance testing for parallel and distributed programming libraries, but methodology Consecutive Confinements Method (CoCoM), invented by Author, turned out to be general enough to be applied to a wider class of programming libraries, languages and APIs, including both sequential and non-sequential programming models based on imperative programming paradigm. Methodology CoCoM is based on notions defined in the international standard ISO/IEC 13210: Information Technology , - Requirements and Guidelines for Test Methods Specifications and Test Method Implementations for Measuring Conformance to POSIX Standards, and attempts to extend it. CoCoM can be seen as a framework, where many different methodologies and tools can be incorporated, allowing for expansion towards any specific formalism, for which a supporting processing engine can be found. For the purpose of the Thesis Author has developed a prototype tool called CTS Designer, which implements significant parts of the standard ISO/IEC 13210 and the CoCoM methodology and shall be considered a top integrating component of a dedicated formal framework postulated before
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Geffroy, Thomas. "Vers des outils efficaces pour la vérification de systèmes concurrents". Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0848/document.

Texto completo
Resumen
Cette thèse cherche à résoudre en pratique le problème de couverture dans les réseaux de Petri et les systèmes de canaux à pertes (LCS). Ces systèmes sont intéressants à étudier car ils permettent de modéliser facilement les systèmes concurrents et les systèmes distribués. Le problème de couverture dans un système de transitions consiste à savoir si on peut, à partir d’un état initial arriver à un état plus grand qu’un état cible. La résolution de ce problème dans les systèmes de transitions bien structurés (WSTS) sera le sujet d’études de la première partie. Les réseaux de Petri et les LCS sont des WSTS. On donnera dans la première partie une méthode générale pour le résoudre rapidement en pratique. Cette méthode utilise des invariants de couverture, qui sont des sur-approximations de l’ensemble des états couvrables. La seconde partie sera consacrée aux réseaux de Petri. Elle présentera diverses comparaisons théoriques et pratiques de différents invariants de couverture. Nous nous intéresserons notamment à la combinaison de l’invariant classique de l’inéquation d’état avec une analyse de signe simple. Les LCS seront le sujet d’études de la troisième partie. On présentera une variante de l’inéquation d’état adaptée aux LCS ainsi que deux invariants qui retiennent des propriétés sur l’ordre dans lequel les messages sont envoyés. La thèse a mené à la création de deux outils, ICover et BML, pour résoudre le problème de couverture respectivement dans les réseaux de Petri et dans les LCS
The goal of this thesis is to solve in practice the coverability problem in Petri nets and lossy channel systems (LCS). These systems are interesting to study because they can be used to model concurrent and distributed systems. The coverability problem in a transition system is to decide whether it is possible, from an initial state, to reach a greater state than a target state. In the first part, we discuss how to solve this problem for well-structured transition systems (WSTS). Petri nets and LCS are WSTS. In the first part, we present a general method to solve this problem quickly in practice. This method uses coverability invariants, which are over-approximations of the set of coverable states. The second part studies Petri nets.We present comparisons of coverability invariants, both in theory and in practice. A particular attention will be paid on the combination of the classical state inequation and a simple sign analysis. LCS are the focus of the third part. We present a variant of the state inequation for LCS and two invariants that compute properties for the order in which messages are sent. Two tools, ICover and BML, were developed to solve the coverability problem in Petri nets and LCS respectively
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Catella, Adrien. "Schémas d'intégration en temps efficaces pour la résolution numérique des équations de Maxwell instationnaires par des méthodes Galerkin discontinues d'ordre élevé en maillages non-structurés". Nice, 2008. http://www.theses.fr/2008NICE4106.

Texto completo
Resumen
L’objectif général de cette étude est le développement et l’évaluation des schémas en temps efficaces pour des méthodes de type Galerkin discontinu (GD) en maillages tétraédriques non structurés pour la résolution numérique des équations de Maxwell en domaine temporel. Dans la première partie de cette thèse nous rappelons les équations de Maxwell et faisons une rapide revue des principales méthodes numériques utilisées pour résoudre ce système. Dans la seconde partie de cette thèse nous présentons la méthode Galerkin discontinue basée sur des approximations centrées d’ordre générique. Dans ce chapitre nous nous intéresserons qu’aux schémas en temps explicite. Nous détaillerons dans le troisième chapitre la partie principale de ce travail de thèse, c’est-à-dire les schémas implicites en temps, plus particulièrement le schéma implicite très étudié dans la littérature de Crank-Nicolsonn et dans un second temps un schéma implicite d’ordre 4 obtenu à l’aide de la technique du défaut corrigé. Nous réalisons une étude comparative de deux solveurs (direct et intératif) pour la résolution du système linéaire au chapitre 4. Pour des questions d’espace mémoire, nous nous intéressons au chapitre 5 à appliquer le schéma implicite à un sous ensemble du domaine de calcul. Pour cela nous utilisons un schéma hybride explicite/implicite. Au chapitre6, nous présentons les résultats 3D obtenus avec cette méthode. Les problèmes considérés ont plusieurs millions d’inconnues
This general objective of this study is the development and assesment of efficient time integration scheme for Discontinuous Galerkin time domain (DGTD) method on unstructured tetraedral meshes for numerical resolution of Maxwell equations. In first part of this thesis, we remind Maxwell's equations and summarize main numerical methods used to solve this system. In the second part, we present the Discontinuous Galerkin method based on centred approximations for generic order. In this chapter, we focuse to time explicit scheme. We detailed, in third chapter, the main part of this work, in other words time implicit scheme, especially the Crank-Nicolson scheme, which is most studied in scientific litterature and in a second time a scheme of order 4 obtained by the defect correction technique. We realized a comparative study of both solvers (iterative and direct) to solve the linear system in chapter 4. For a memory space consideration , we apply the implicit scheme on a subdomain only. To do this, we use a hybrid explicit/implicit scheme. On chapter 6, we present the results 3D obtained with this method. Problems considered has several millions unknowns
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Averseng, Martin. "Méthodes efficaces pour la diffraction acoustique en 2 et 3 dimensions : préconditionnement sur des domaines singuliers et convolution rapide". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX083.

Texto completo
Resumen
Cette thèse porte sur le problème de la diffration acoustique par un obstacle et sa résolution numérique par la méthode des éléments finis de frontière. Dans les trois premiers chapitres, on s'intéresse au cas où l'obstacle possède des singularités géométriques. Nous traitons le cas particulier des singularités de bord, courbes ouvertes en dimension 2, et surfaces ouvertes en dimension 3. Nous introduisons un formalisme qui permet de retrouver les bonnes propriétés de la méthode pour des objets réguliers. Une fonction de poids est définie sur les objets diffractant, et les opérateurs intégraux usuels (simple-couche et hypersingulier) sont renormalisés de manière adéquate par ce poids. Des préconditioneurs sont proposés sous la forme de racines carrées d'opérateurs locaux. En dimension 2, nous proposons une analyse théorique et numérique complète du problème. Nous montrons en particulier que les opérateurs intégraux renormalisés font partie d'une classe d'opérateurs pseudo-différentiels sur des courbes ouvertes, que nous introduisons et étudions ici. Le calcul pseudo-différentiel ainsi développé nous permet de calculer des paramétrices des les opérateurs intégraux qui correspondent aux versions continues de nos préconditionneurs. En dimension 3, nous montrons comment ces idées se généralisent théoriquement et numériquement dans le cas pour des surfaces ouvertes. Dans le dernier chapitre, nous introduisons une nouvelle méthode de calcul rapide des convolutions par des fonctions radiales en dimension 2, l'une des tâches les plus coûteuses en temps dans la méthode des éléments finis de frontière. Notre algorithme repose sur l'algorithme de transformée de Fourier rapide non uniforme, et est la généralisation un algorithme analogue disponible en dimension 3, la décomposition creuse en sinus cardinal
In this thesis, we are concerned with the numerical resolution of the problem of acoustic waves scattering by an obstacle in dimensions 2 and 3, with the boundary element method. In the first three chapters, we consider objects with singular geometries. We focus on the case of objects with edge singularities, first open curves in the plane, and then open surfaces in dimension 3. We present a formalism that allows to restore the good properties that held for smooth objects. A weight function is defined on the scattering object, and the usual layer potentials (single-layer and hypersingular) are adequately rescaled by this weight function. Suitable preconditioners are proposed, that take the form of square roots of local operators. In dimension 2, we give a complete theoretical and numerical analysis of the problem. We show in particular that the weighted layer potentials belong to a class of pseudo-differential operators on open curves that we define and analyze here. The pseudo-differential calculus thus developed allows us to compute parametrices for the weighted layer potentials, which correspond to the continuous versions of our preconditioners. In dimension 3, we show how those ideas can be extended theoretically and numerically, for the particular case of the scattering by an infinitely thin disk. In the last chapter, we present a new method for the rapid evaluation of discrete convolutions by radial functions in dimension 2. Such convolutions represent a computational bottleneck in the boundary element methods. Our algorithm relies on the non-uniform fast Fourier transform and generalizes to dimension 2 an analogous algorithm available in dimension 3, namely the sparse cardinal sine decomposition
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Bounliphone, Wacha. "Tests d’hypothèses statistiquement et algorithmiquement efficaces de similarité et de dépendance". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC002/document.

Texto completo
Resumen
Cette thèse présente de nouveaux tests d’hypothèses statistiques efficaces pour la relative similarité et dépendance, et l’estimation de la matrice de précision. La principale méthodologie adoptée dans cette thèse est la classe des estimateurs U-statistiques.Le premier test statistique porte sur les tests de relative similarité appliqués au problème de la sélection de modèles. Les modèles génératifs probabilistes fournissent un cadre puissant pour représenter les données. La sélection de modèles dans ce contexte génératif peut être difficile. Pour résoudre ce problème, nous proposons un nouveau test d’hypothèse non paramétrique de relative similarité et testons si un premier modèle candidat génère un échantillon de données significativement plus proche d’un ensemble de validation de référence.La deuxième test d’hypothèse statistique non paramétrique est pour la relative dépendance. En présence de dépendances multiples, les méthodes existantes ne répondent qu’indirectement à la question de la relative dépendance. Or, savoir si une dépendance est plus forte qu’une autre est important pour la prise de décision. Nous présentons un test statistique qui détermine si une variable dépend beaucoup plus d’une première variable cible ou d’une seconde variable.Enfin, une nouvelle méthode de découverte de structure dans un modèle graphique est proposée. En partant du fait que les zéros d’une matrice de précision représentent les indépendances conditionnelles, nous développons un nouveau test statistique qui estime une borne pour une entrée de la matrice de précision. Les méthodes existantes de découverte de structure font généralement des hypothèses restrictives de distributions gaussiennes ou parcimonieuses qui ne correspondent pas forcément à l’étude de données réelles. Nous introduisons ici un nouveau test utilisant les propriétés des U-statistics appliqués à la matrice de covariance, et en déduisons une borne sur la matrice de précision
The dissertation presents novel statistically and computationally efficient hypothesis tests for relative similarity and dependency, and precision matrix estimation. The key methodology adopted in this thesis is the class of U-statistic estimators. The class of U-statistics results in a minimum-variance unbiased estimation of a parameter.The first part of the thesis focuses on relative similarity tests applied to the problem of model selection. Probabilistic generative models provide a powerful framework for representing data. Model selection in this generative setting can be challenging. To address this issue, we provide a novel non-parametric hypothesis test of relative similarity and test whether a first candidate model generates a data sample significantly closer to a reference validation set.Subsequently, the second part of the thesis focuses on developing a novel non-parametric statistical hypothesis test for relative dependency. Tests of dependence are important tools in statistical analysis, and several canonical tests for the existence of dependence have been developed in the literature. However, the question of whether there exist dependencies is secondary. The determination of whether one dependence is stronger than another is frequently necessary for decision making. We present a statistical test which determine whether one variables is significantly more dependent on a first target variable or a second.Finally, a novel method for structure discovery in a graphical model is proposed. Making use of a result that zeros of a precision matrix can encode conditional independencies, we develop a test that estimates and bounds an entry of the precision matrix. Methods for structure discovery in the literature typically make restrictive distributional (e.g. Gaussian) or sparsity assumptions that may not apply to a data sample of interest. Consequently, we derive a new test that makes use of results for U-statistics and applies them to the covariance matrix, which then implies a bound on the precision matrix
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Vincent, Thomas. "Caractérisation des solutions efficaces et algorithmes d’énumération exacts pour l’optimisation multiobjectif en variables mixtes binaires". Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=c984a17c-6904-454d-9b3a-e63846e9fb9b.

Texto completo
Resumen
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes d’optimisation multiobjectif en variables mixtes binaires. La nature mixte des variables introduit d’importantes différences par rapport aux contextes purement discrets ou continus. Nous proposons donc de prendre en compte ces différences grâce à une représentation appropriée des ensembles de solutions ainsi qu’une procédure de mise à jour dédiée. Ces propositions nous permettent, dans le contexte biobjectif, d’adapter deux méthodes de résolution usuellement appliquées aux problèmes combinatoires : la procédure de Branch & Bound et la méthode en deux phases. Nous proposons de nombreux affinements pour ces méthodes, comme de nouveaux ensembles bornant ou des stratégies de cheminement. À partir de nos observations sur leurs performances, nous proposons une nouvelle routine pour la seconde phase de la méthode en deux phases, reprenant les points forts des méthodes étudiées. Dans le contexte triobjectif, nous étendons notre représentation des ensembles de solutions en procédant par analogie avec le cas biobjectif. Les méthodes de résolution sont également adaptées à ce contexte et étudiées. En particulier, la décomposition de la zone de recherche lors de la seconde phase est décrite en détail. La solution logicielle proposée a été appliquée sur un problème réel : l’évaluation d’une politique de choix de véhicules. Les choix concernés vont de véhicules conventionnels aux véhicules électriques, eux-mêmes alimentés par une source d’électricité classique ou par panneaux solaires
The purpose of this work is the exact solution of multiple objective binary mixed integer linear programmes. The mixed nature of the variables implies significant differences with purely continuous or purely discrete programmes. Thus, we propose to take these differences into account using a proper representation of the solution sets and a dedicated update procedure. These propositions allow us to adapt for the biobjective case two solution methods commonly used for combinatorial problems: the Branch & Bound algorithm and the two phase method. Several improvements are proposed, such as bound sets or visiting strategies. We introduce a new routine for the second phase of the two phase method that takes advantage of all the relevant features of the previously studied methods. In the 3-objective context, the solution sets representation is extended by analogy with the biobjective case. Solutions methods are extended and studied as well. In particular, the decomposition of the search area during the second phase is thoroughly described. The proposed software solution has been applied on a real world problem: evaluation of a vehicle choice policy. The possible choices range from classical to electric vehicles that are powered by grid or solar power
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

BEN, AMOR NADIA. "Developpement de methodes ab initio size-extensives et d'algorithmes efficaces pour le calcul de la correlation electronique". Toulouse 3, 1997. http://www.theses.fr/1997TOU30246.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Poyer, Salomé. "Développement de méthodes d'analyse par spectrométrie de masse à mobilité ionique pour l'identification des analogues de saxitoxine". Rouen, 2015. http://www.theses.fr/2015ROUES053.

Texto completo
Resumen
Ces travaux de thèse portent sur la séparation et l’identification de la saxitoxine et de ses analogues, composés neurotoxiques naturels. Des méthodes séparatives modernes telles que la chromatographie liquide à interactions hydrophiles (HILIC) et la spectrométrie de mobilité ionique (IMS) ont été couplées à la spectrométrie de masse (MS) pour réaliser l’analyse de ces toxines. Les couplages HILIC-MS et IMS-MS ont été développés, montrant une complémentarité dans la séparation des différents analogues. Le couplage des trois méthodes, HILIC-IMS-MS, a ensuite été mis au point et a permis la séparation rapide et non-ambiguë de chacun des analogues de saxitoxine. Le couplage HILIC-IMS-MS s’est également révélé être très répétable pour l’analyse de matrices biologiques complexes, bien que moins sensible que le couplage de la chromatographie HILIC avec un triple quadripôle utilisé en mode ciblé (MRM). L’approche IMS-MS a par ailleurs permis de déterminer les valeurs de sections efficaces de collision pour chaque analogue. Ces valeurs expérimentales ont été confrontées à des valeurs calculées correspondant à des structures théoriques obtenues par modélisation moléculaire. De bonnes corrélations ont été obtenues et ont permis d’accéder à des informations concernant la structure tridimensionnelle de ces toxines. La caractérisation structurale des analogues de saxitoxine a également été réalisée par spectrométrie de masse en tandem à partir notamment des espèces [M+H]+, [M+Li]+, [M+Na]+, [M+K]+ et [M−H]−. Une systématique de fragmentation, caractéristique de ce type de composés, a été mise en évidence. De plus, la nature des différents ions produits a permis de déterminer la stabilité des groupements fonctionnels en fonction du mode d’ionisation étudié
This thesis work focused on the separation and identification of saxitoxin analogues, natural neurotoxic compounds. Modern separation techniques such as hydrophilic interaction liquid chromatography (HILIC) and ion mobility spectrometry (IMS) coupled to mass spectrometry (MS) were developed for the analysis of saxitoxins. HILIC-MS and IMS-MS coupling were developed, showing a complementary for separation of the various saxitoxin analogues. HILIC-IMS-MS coupling was then optimized and allowed the fast separation of the toxin analogues. The HILIC-IMS-MS coupling was also repeatable when complex mixtures were injected, although it was less sensitive than with the coupling of HILIC with a triple quadrupole instrument operated in targeted mode. IMS application to saxitoxins also permitted to determinate the collision cross section values of each analogue. The calculation of theoretical structures permitted the determination of theoretical collision cross sections that were correlated to experimental values and allowed the access of gaseous phase conformation. Saxitoxin analogues characterization was carried out by tandem mass spectrometry of [M+H]+, [M+Li]+, [M+Na]+, [M+K]+ and [M−H]− species. The different product ions gave information about stability of chemical functions depending on the different species studied
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Piscitelli, David. "Simulation de la pulvérisation cathodique dans les écrans à plasma". Toulouse 3, 2002. http://www.theses.fr/2002TOU30184.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Cai, Li. "Condensation et homogénéisation des sections efficaces pour les codes de transport déterministes par la méthode de Monte Carlo : Application aux réacteurs à neutrons rapides de GEN IV". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112280/document.

Texto completo
Resumen
Dans le cadre des études de neutronique menées pour réacteurs de GEN-IV, les nouveaux outils de calcul des cœurs de réacteur sont implémentés dans l’ensemble du code APOLLO3® pour la partie déterministe. Ces méthodes de calculs s’appuient sur des données nucléaires discrétisée en énergie (appelées multi-groupes et généralement produites par des codes déterministes eux aussi) et doivent être validées et qualifiées par rapport à des calculs basés sur la méthode de référence Monte-Carlo. L’objectif de cette thèse est de mettre au point une technique alternative de production des propriétés nucléaires multi-groupes par un code de Monte-Carlo (TRIPOLI-4®). Dans un premier temps, après avoir réalisé des tests sur les fonctionnalités existantes de l’homogénéisation et de la condensation avec des précisions meilleures accessibles aujourd’hui, des incohérences sont mises en évidence. De nouveaux estimateurs de paramètres multi-groupes ont été développés et validés pour le code TRIPOLI-4®à l’aide de ce code lui-même, puisqu’il dispose de la possibilité d’utiliser ses propres productions de données multi-groupes dans un calcul de cœur. Ensuite, la prise en compte de l’anisotropie de la diffusion nécessaire pour un bon traitement de l’anisotropie introduite par des fuites des neutrons a été étudiée. Une technique de correction de la diagonale de la matrice de la section efficace de transfert par diffusion à l’ordre P1 (nommée technique IGSC et basée sur une évaluation du courant des neutrons par une technique introduite par Todorova) est développée. Une amélioration de la technique IGSC dans la situation où les propriétés matérielles du réacteur changent drastiquement en espace est apportée. La solution est basée sur l’utilisation d’un nouveau courant qui est projeté sur l’axe X et plus représentatif dans la nouvelle situation que celui utilisant les approximations de Todorova, mais valable seulement en géométrie 1D. A la fin, un modèle de fuite B1 homogène est implémenté dans le code TRIPOLI-4® afin de produire des sections efficaces multi-groupes avec un spectre critique calculé avec l’approximation du mode fondamental. Ce modèle de fuite est analysé et validé rigoureusement en comparant avec les autres codes : Serpent et ECCO ; ainsi qu’avec un cas analytique.L’ensemble de ces développements dans TRIPOLI-4® permet de produire des sections efficaces multi-groupes qui peuvent être utilisées dans le code de calcul de cœur SNATCH de la plateforme PARIS. Ce dernier utilise la théorie du transport qui est indispensable pour la nouvelle filière à neutrons rapides. Les principales conclusions sont : -Le code de réseau en Monte-Carlo est une voie intéressante (surtout pour éviter les difficultés de l’autoprotection, de l’anisotropie limitée à un certain ordre du développement en polynômes de Legendre, du traitement des géométries exactes 3D), pour valider les codes déterministes comme ECCO ou APOLLO3® ou pour produire des données pour les codes déterministes ou Monte-Carlo multi-groupes.-Les résultats obtenus pour le moment avec les données produites par TRIPOLI-4® sont comparables mais n’ont pas encore vraiment montré d’avantage par rapport à ceux obtenus avec des données issues de codes déterministes tel qu’ECCO
In the framework of the Generation IV reactors neutronic research, new core calculation tools are implemented in the code system APOLLO3® for the deterministic part. These calculation methods are based on the discretization concept of nuclear energy data (named multi-group and are generally produced by deterministic codes) and should be validated and qualified with respect to some Monte-Carlo reference calculations. This thesis aims to develop an alternative technique of producing multi-group nuclear properties by a Monte-Carlo code (TRIPOLI-4®).At first, after having tested the existing homogenization and condensation functionalities with better precision obtained nowadays, some inconsistencies are revealed. Several new multi-group parameters estimators are developed and validated for TRIPOLI-4® code with the aid of itself, since it has the possibility to use the multi-group constants in a core calculation.Secondly, the scattering anisotropy effect which is necessary for handling neutron leakage case is studied. A correction technique concerning the diagonal line of the first order moment of the scattering matrix is proposed. This is named the IGSC technique and is based on the usage of an approximate current which is introduced by Todorova. An improvement of this IGSC technique is then presented for the geometries which hold an important heterogeneity property. This improvement uses a more accurate current quantity which is the projection on the abscissa X. The later current can represent the real situation better but is limited to 1D geometries.Finally, a B1 leakage model is implemented in the TRIPOLI-4® code for generating multi-group cross sections with a fundamental mode based critical spectrum. This leakage model is analyzed and validated rigorously by the comparison with other codes: Serpent and ECCO, as well as an analytical case.The whole development work introduced in TRIPLI-4® code allows producing multi-group constants which can then be used in the core calculation solver SNATCH in the PARIS code platform. The latter uses the transport theory which is indispensable for the new generation fast reactors analysis. The principal conclusions are as follows:-The Monte-Carlo assembly calculation code is an interesting way (in the sense of avoiding the difficulties in the self-shielding calculation, the limited order development of anisotropy parameters, the exact 3D geometries) to validate the deterministic codes like ECCO or APOLLO3® and to produce the multi-group constants for deterministic or Monte-Carlo multi-group calculation codes. -The results obtained for the moment with the multi-group constants calculated by TRIPOLI-4 code are comparable with those produced from ECCO, but did not show remarkable advantages
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Pan, Cihui. "Diffraction électromagnétique par des réseaux et des surfaces rugueuses aléatoires : mise en œuvre deméthodes hautement efficaces pour la résolution de systèmes aux valeurs propres et de problèmesaux conditions initiales". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV020/document.

Texto completo
Resumen
Dans cette thèse, nous étudions la diffraction électromagnétique par des réseau et surfaces rugueuse aléatoire. Le méthode C est une méthode exacte développée pour ce but. Il est basé sur équations de Maxwell sous forme covariante écrite dans un système de coordonnées non orthogonal. Le méthode C conduisent à résoudre le problème de valeur propre. Le champ diffusé est expansé comme une combinaison linéaire des solutions propres satisfaisant à la condition d’onde sortant.Nous nous concentrons sur l’aspect numérique de la méthode C, en essayant de développer une application efficace de cette méthode exacte. Pour les réseaux, nous proposons une nouvelle version de la méthode C qui conduit `a un système différentiel avec les conditions initiales. Nous montrons que cette nouvelle version de la méthode C peut être utilisée pour étudier les réseaux de multicouches avec un médium homogène.Nous vous proposons un algorithme QR parallèle conçu spécifiquement pour la méthode C pour résoudre le problème de valeurs propres. Cet algorithme QR parallèle est une variante de l’algorithme QR sur la base de trois tech- niques: “décalage rapide”, poursuite de renflement parallèle et de dégonflage parallèle agressif précoce (AED)
We study the electromagnetic diffraction by gratings and random rough surfaces. The C-method is an exact method developed for this aim. It is based on Maxwell’s equations under covariant form written in a nonorthogonal coordinate system. The C-method leads to an eigenvalue problem, the solution of which gives the diffracted field.We focus on the numerical aspect of the C-method, trying to develop an efficient application of this exact method. For gratings, we have developed a new version of C-method which leads to a differential system with initial conditions. This new version of C-method can be used to study multilayer gratings with homogeneous medium.We implemented high performance algorithms to the original versions of C-method. Especially, we have developed a specifically designed parallel QR algorithm for the C- method and spectral projection method to solve the eigenvalue problem more efficiently. Experiments have shown that the computation time can be reduced significantly
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Loiseau, Romain. "Real-World 3D Data Analysis : Toward Efficiency and Interpretability". Electronic Thesis or Diss., Marne-la-vallée, ENPC, 2023. http://www.theses.fr/2023ENPC0028.

Texto completo
Resumen
Cette thèse explore de nouvelles approches d'apprentissage profond pour l'analyse des données 3D du monde réel. Le traitement des données 3D est utile pour de nombreuses applications telles que la conduite autonome, la gestion du territoire, la surveillance des installations industrielles, l'inventaire forestier et la mesure de biomasse. Cependant, l'annotation et l'analyse des données 3D peuvent être exigeantes. En particulier, il est souvent difficile de respecter des contraintes liées à l'utilisation des ressources de calcul ou à l'efficacité de l'annotation. La difficulté d'interpréter et de comprendre le fonctionnement interne des modèles d'apprentissage profond peut également limiter leur adoption.Des efforts considérables ont été déployés pour concevoir des méthodes d'analyse des données 3D, afin d'effectuer des tâches telles que la classification des formes ou la segmentation et la décomposition de scènes. Les premières analyses automatisées s'appuyaient sur des descripteurs créés à la main et incorporaient des connaissances préalables sur les acquisitions du monde réel. Les techniques modernes d'apprentissage profond ont de meilleures performances, mais, sont souvent coûteuses en calcul, dépendent de grands ensembles de données annotées, et sont peu interprétables. Les contributions de cette thèse répondent à ces limitations.La première contribution est une architecture d'apprentissage profond pour l’analyse efficace de séquences LiDAR en temps réel. Notre approche prend en compte la géométrie d'acquisition des capteurs LiDAR rotatifs, que de nombreuses pipelines de conduite autonome utilisent. Par rapport aux travaux antérieurs, qui considèrent les rotations complètes des capteurs LiDAR individuellement, notre modèle traite l'acquisition par petits incréments. L'architecture que nous proposons à une performance comparable à celle des meilleures méthodes, tout en réduisant le temps de traitement de plus de cinq fois, et la taille du modèle de plus de cinquante fois.La deuxième contribution est une méthode d'apprentissage profond permettant de résumer de vastes collections de formes 3D à l'aide d'un petit ensemble de formes 3D. Nous apprenons un faible nombre de formes prototypiques 3D qui sont alignées et déformées pour reconstruire les nuages de points d'entrée. Notre représentation compacte et interprétable des collections de formes 3D permet d'obtenir des résultats à l'état de l'art de la segmentation sémantique avec peu d'exemples annotés.La troisième contribution développe l'analyse non supervisée pour la décomposition de scans 3D du monde réel en parties interprétables. Nous introduisons un modèle de reconstruction probabiliste permettant de décomposer un nuage de points 3D à l'aide d'un petit ensemble de formes prototypiques apprises. Nous surpassons les méthodes non supervisées les plus récentes en termes de précision de décomposition, tout en produisant des représentations visuellement interprétables. Nous offrons des avantages significatifs par rapport aux approches existantes car notre modèle ne nécessite pas d'annotations lors de l'entraînement.Cette thèse présente également deux jeux de données annotés du monde réel en accès libre, HelixNet et Earth Parser Dataset, acquis respectivement avec des LiDAR terrestres et aériens. HelixNet est le plus grand jeu de données LiDAR de conduite autonome avec des annotations denses, et fournit les métadonnées du capteur pour chaque points, cruciales pour mesurer précisément la latence des méthodes de segmentation sémantique. Le Earth Parser Dataset se compose de sept scènes LiDAR aériennes, qui peuvent être utilisées pour évaluer les performances des techniques de traitement 3D dans divers environnements.Nous espérons que ces jeux de données, et ces méthodes fiables tenant compte des spécificités des acquisitions dans le monde réel, encourageront la poursuite de la recherche vers des modèles plus efficaces et plus interprétables
This thesis explores new deep-learning approaches for modeling and analyzing real-world 3D data. 3D data processing is helpful for numerous high-impact applications such as autonomous driving, territory management, industry facilities monitoring, forest inventory, and biomass measurement. However, annotating and analyzing 3D data can be demanding. Specifically, matching constraints regarding computing resources or annotation efficiency is often challenging. The difficulty of interpreting and understanding the inner workings of deep learning models can also limit their adoption.The computer vision community has made significant efforts to design methods to analyze 3D data, to perform tasks such as shape classification, scene segmentation, and scene decomposition. Early automated analysis relied on hand-crafted descriptors and incorporated prior knowledge about real-world acquisitions. Modern deep learning techniques demonstrate the best performances but are often computationally expensive, rely on large annotated datasets, and have low interpretability. In this thesis, we propose contributions that address these limitations.The first contribution of this thesis is an efficient deep-learning architecture for analyzing LiDAR sequences in real time. Our approach explicitly considers the acquisition geometry of rotating LiDAR sensors, which many autonomous driving perception pipelines use. Compared to previous work, which considers complete LiDAR rotations individually, our model processes the acquisition in smaller increments. Our proposed architecture achieves accuracy on par with the best methods while reducing processing time by more than five times and model size by more than fifty times.The second contribution is a deep learning method to summarize extensive 3D shape collections with a small set of 3D template shapes. We learn end-to-end a small number of 3D prototypical shapes that are aligned and deformed to reconstruct input point clouds. The main advantage of our approach is that its representations are in the 3D space and can be viewed and manipulated. They constitute a compact and interpretable representation of 3D shape collections and facilitate annotation, leading to emph{state-of-the-art} results for few-shot semantic segmentation.The third contribution further expands unsupervised analysis for parsing large real-world 3D scans into interpretable parts. We introduce a probabilistic reconstruction model to decompose an input 3D point cloud using a small set of learned prototypical shapes. Our network determines the number of prototypes to use to reconstruct each scene. We outperform emph{state-of-the-art} unsupervised methods in terms of decomposition accuracy while remaining visually interpretable. We offer significant advantages over existing approaches as our model does not require manual annotations.This thesis also introduces two open-access annotated real-world datasets, HelixNet and the Earth Parser Dataset, acquired with terrestrial and aerial LiDARs, respectively. HelixNet is the largest LiDAR autonomous driving dataset with dense annotations and provides point-level sensor metadata crucial for precisely measuring the latency of semantic segmentation methods. The Earth Parser Dataset consists of seven aerial LiDAR scenes, which can be used to evaluate 3D processing techniques' performances in diverse environments.We hope that these datasets and reliable methods considering the specificities of real-world acquisitions will encourage further research toward more efficient and interpretable models
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Boutoux, Guillaume. "Sections efficaces neutroniques via la méthode de substitution". Phd thesis, Bordeaux 1, 2011. http://tel.archives-ouvertes.fr/tel-00654677.

Texto completo
Resumen
Les sections efficaces neutroniques des noyaux de courte durée de vie sont des données cruciales pour la physique fondamentale et appliquée dans des domaines tels que la physique des réacteurs ou l'astrophysique nucléaire. En général, l'extrême radioactivité de ces noyaux ne nous permet pas de procéder à des mesures induites par neutrons. Cependant, il existe une méthode de substitution (" surrogate " dans la littérature) qui permet de déterminer ces sections efficaces neutroniques par l'intermédiaire de réactions de transfert ou de réactions de diffusion inélastique. Son intérêt principal est de pouvoir utiliser des cibles moins radioactives et ainsi d'accéder à des sections efficaces neutroniques qui ne pourraient pas être mesurées directement. La méthode est basée sur l'hypothèse de formation d'un noyau composé et sur le fait que la désexcitation ne dépend essentiellement que de l'énergie d'excitation et du spin et parité de l'état composé peuplé. Toutefois, les distributions de moments angulaires et parités peuplés dans des réactions de transfert et celles induites par neutrons sont susceptibles d'être différentes. Ce travail fait l'état de l'art sur la méthode substitution et sa validité. En général, la méthode de substitution fonctionne très bien pour extraire des sections efficaces de fission. Par contre, la méthode de substitution dédiée à la capture radiative est mise à mal par la comparaison aux réactions induites par neutrons. Nous avons réalisé une expérience afin de déterminer les probabilités de désexcitation gamma du 176Lu et du 173Yb à partir des réactions de substitution 174Yb(3He,p)176Lu* et 174Yb(3He,alpha)173Yb*, respectivement, et nous les avons comparées avec les probabilités de capture radiative correspondantes aux réactions 175Lu(n,gamma) et 172Yb(n,gamma) qui sont bien connues. Cette expérience a permis de comprendre pourquoi, dans le cas de la désexcitation gamma, la méthode de substitution donne des écarts importants par rapport à la réaction neutronique correspondante. Ce travail dans la région de terres rares a permis d'évaluer dans quelle mesure la méthode de substitution peut s'appliquer pour extraire des probabilités de capture dans la région des actinides. Des expériences précédentes sur la fission ont aussi pu être réinterprétées. Ce travail apporte donc un éclairage nouveau sur la méthode de substitution.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Szames, Esteban Alejandro. "Few group cross section modeling by machine learning for nuclear reactor". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS134.

Texto completo
Resumen
Pour estimer la répartition de la puissance au sein d’un réacteur nucléaire, il est nécessaire de coupler des modélisations neutroniques et thermohydrauliques. De telles simulations doivent disposer des valeurs sections efficaces homogénéisées à peu de groupes d’énergies qui décrivent les interactions entre les neutrons et la matière. Cette thèse est consacrée à la modélisation des sections efficaces par des techniques académiques innovantes basées sur l’apprentissage machine. Les premières méthodes utilisent les modèles à noyaux du type RKHS (Reproducing Kernel Hilbert Space) et les secondes par réseaux de neurones. La performance d’un modèle est principalement définie par le nombre de coefficients qui le caractérisent (c’est-à-dire l’espace mémoire nécessaire pour le stocker), la vitesse d’évaluation, la précision, la robustesse au bruit numérique, la complexité, etc. Dans cette thèse, un assemblage standard de combustible UOX REP est analysé avec trois variables d’état : le burnup, la température du combustible et la concentration en bore. La taille de stockage des bibliothèques est optimisée en cherchant à maximiser la vitesse et la précision de l’évaluation, tout en cherchant à réduire l’erreur de reconstruction des sections efficaces microscopiques, macroscopiques et du facteur de multiplication infini. Trois techniques d’approximation sont étudiées. Les méthodes de noyaux, qui utilisent le cadre général d’apprentissage machine, sont capables de proposer, dans un espace vectoriel normalisé, une grande variété de modèles de régression ou de classification. Les méthodes à noyaux peuvent reproduire différents espaces de fonctions en utilisant un support non structuré, qui est optimisé avec des techniques d’apprentissage actif. Les approximations sont trouvées grâce à un processus d’optimisation convexe facilité par "l’astuce du noyau”. Le caractère modulaire intrinsèque de la méthode facilite la séparation des phases de modélisation : sélection de l’espace de fonctions, application de routines numériques, et optimisation du support par apprentissage actif. Les réseaux de neurones sont des méthodes d’approximation universelles capables d’approcher de façon arbitraire des fonctions continues sans formuler de relations explicites entre les variables. Une fois formés avec des paramètres d’apprentissage adéquats, les réseaux à sorties multiples (intrinsèquement parallélisables) réduisent au minimum les besoins de stockage tout en offrant une vitesse d’évaluation élevée. Les stratégies que nous proposons sont comparées entre elles et à l’interpolation multilinéaire sur une grille cartésienne qui est la méthode utilisée usuellement dans l’industrie. L’ensemble des données, des outils, et des scripts développés sont disponibles librement sous licence MIT
Modern nuclear reactors utilize core calculations that implement a thermo-hydraulic feedback requiring accurate homogenized few-group cross sections.They describe the interactions of neutrons with matter, and are endowed with the properties of smoothness and regularity, steaming from their underling physical phenomena. This thesis is devoted to the modeling of these functions by industry state-of-theart and innovative machine learning techniques. Mathematically, the subject can be defined as the analysis of convenient mapping techniques from one multi-dimensional space to another, conceptualize as the aggregated sum of these functions, whose quantity and domain depends on the simulations objectives. Convenient is intended in terms of computational performance, such as the model’s size, evaluation speed, accuracy, robustness to numerical noise, complexity,etc; always with respect to the engineering modeling objectives that specify the multidimensional spaces of interest. In this thesis, a standard UO₂ PWR fuel assembly is analyzed for three state-variables, burnup,fuel temperature, and boron concentration.Library storage requirements are optimized meeting the evaluation speed and accuracy targets in view of microscopic, macroscopic cross sections and the infinite multiplication factor. Three approximation techniques are studied: The state-of-the-art spline interpolation using computationally convenient B-spline basis, that generate high order local approximations. A full grid is used as usually donein the industry. Kernel methods, that are a very general machine learning framework able to pose in a normed vector space, a large variety of regression or classification problems. Kernel functions can reproduce different function spaces using an unstructured support,which is optimized with pool active learning techniques. The approximations are found through a convex optimization process simplified by the kernel trick. The intrinsic modular character of the method facilitates segregating the modeling phases: function space selection, application of numerical routines and support optimization through active learning. Artificial neural networks which are“model free” universal approximators able Artificial neural networks which are“model free” universal approximators able to approach continuous functions to an arbitrary degree without formulating explicit relations among the variables. With adequate training settings, intrinsically parallelizable multi-output networks minimize storage requirements offering the highest evaluation speed. These strategies are compared to each other and to multi-linear interpolation in a Cartesian grid, the industry standard in core calculations. The data set, the developed tools, and scripts are freely available under aMIT license
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Ciccoli, Marie Claude. "Schémas numériques efficaces pour le calcul d'écoulements hypersoniques réactifs". Nice, 1992. http://www.theses.fr/1992NICE4574.

Texto completo
Resumen
L'objet de cette thèse est la construction de méthodes de résolution efficaces pour le calcul d'écoulements hypersoniques réactifs non visqueux. On rappelle (chap. 1) les équations qui régissent un mélange gazeux hors équilibre chimique. On adopte, pour la résolution de ces équations, une approche découplée. L'approximation spatiale repose sur une formulation volumes finis-éléments finis. On construit (chap. 2) un schéma en temps implicite et on montre des calculs autour de géomètries modélisant l'avant de la navette Hermes. En résolvant les équations stationnaires de la chimie par une méthode de newton (chap. 3), on capture des écoulements proche-équilibre. Le couplage Euler-chimie est amélioré (chap. 4) par un algorithme plus robuste de calcul de la température et par la réévaluation de celle-ci entre la résolution des équations d'Euler et celle des équations de la chimie. On adapte (chap. 5) le schéma implicite au calcul d'écoulements en déséquilibre thermique, afin de voir si l'approche découplée reste efficace malgré un nombre croissant d'équations. Le calcul de la température se faisant est partir de l'équation de bilan de l'énergie, on étudie une approche homenthalpique (chap. 6) qui permet le calcul algébrique de l'énergie. Toujours dans un souci d'efficacité, on s'intéresse (chap. 7) aux techniques de décomposition de domaine, en vue de calculs sur des machines parallèles. On applique plusieurs algorithmes de décomposition au calcul d'écoulements hypersoniques réactifs (y compris avec plusieurs modèles physiques). On étudie aussi des algorithmes plus sophistiques sur un problème modèle d'advection-diffusion
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Le, Poupon Axel. "Méthodes optimales et sous-optimales d'allocation de ressources efficace en codage numérique". Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005503.

Texto completo
Resumen
Le problème d'allocation de ressources consiste à optimiser le coût global d'un système en répartissant selon diverses composantes une ressource contrainte par un budget. Chaque composante du système est régie par une loi reliant la ressource au coût qu'elle engendre. Cette description s'applique à de nombreux contextes dont les deux principaux évoqués ici sont issus du codage en communications numériques. Ainsi, les systèmes de codage de source par transformée ou de codage de canal à modulation multi-porteuses intègrent ce problème dans la recherche d'un point de fonctionnement optimal, s'adaptant bien à un formalisme commun. En communications numériques, différentes méthodes de résolution ont été élaborées au cours des quarante dernières années. Leur validité se limite souvent à des cas non-exhaustifs et leurs performances dépendent des caractéristiques des fonctions considérées. De plus, complexité et optimalité revêtent une importance particulière mais sont rarement optimisées de concert en raison des techniques de modélisation et des principes de recherche employés. Un des problèmes majeurs provient en particulier de l'existence de points dit "cachés" n'appartenant pas à l'enveloppe convexe du nuage global et souvent ignorés par les méthodes actuelles d'optimisation. Cette thèse propose d'aborder le problème d'allocation de ressources en communications numériques sous un angle nouveau et global. La reformulation complète du problème et de l'ensemble des concepts sous-jacents permet ainsi d'énoncer des critères propices à la description de quatre algorithmes novateurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Berthet, Antoine Olivier. "Méthodes itératives appliquées au décodage efficace de combinaisons de codes en treillis". Paris 6, 2001. http://www.theses.fr/2001PA066498.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Berthet, Antoine Olivier. "Méthodes itératives appliquées au décodage efficace de combinaisons de codes sur treillis". Paris, ENST, 2001. http://www.theses.fr/2001ENST0036.

Texto completo
Resumen
Bien loin de ne se cantonner qu’à la théorie des codes correcteurs de canal (turbo codes), le regain d’intérêt pour les méthodes itératives s’est propagé à l’ensemble de la théorie des communications, donnant lieu à l’émergence d’un véritable principe turbo. Dans la théorie classique, les différentes fonctions qui composent le récepteur (détecteur, égaliseur, démodulateur, décodeur canal, décodeur source) sont activés séquentiellement, une fois et une seule. La propagation de décisions pondérées entre ces différentes fonctions (par opposition à des décisions fermes) permet de conserver la totalité de l’information sur les grandeurs à estimer disponible en sortie du canal de transmission. Néanmoins, le caractère fondamentalement sous-optimal du partitionnement de la chaine de réception en fonctions spécifiques distinctes n’ayant qu’une connaissance partielle les unes sur les autres (tout spécialement les premières sur les dernières) demeure. Le principe turbo a pour but de pallier cette difficulté. Il substitue à l’approche conventionnelle une approche itérative, consistant à activer plusieurs fois et selon un ordonnancement prédéterminé les différentes fonctions de la chaine de réception, lesquelles, formellement identifiées à des décodeurs concaténés en série, acceptent, délivrent, et échangent entre elles une information probabiliste (qualifiée d’information extrinsèque) constamment raffinée sur les grandeurs à estimer. La turbo détection est un premier exemple d’application du principe turbo. L’idée est de modéliser le canal à interférence entre symboles (IES) comme un code convolutif de rendement unité à polynôme générateur à coefficients complexes et variables dans le temps. Le décodage global de l’ensemble codage canal et canal IES, réalisé itérativement par circulation d’information extrinsèque entre les fonctions de détection/égalisation et de décodage canal, supprime l’IES. En exploitant le caractère hautement structuré des signaux interférents, le principe turbo fournit également d’excellents résultats dans le domaine de la détection multiutilisateur. D’autres exemples récents et prometteurs portent sur les fonctions de démodulation et décodage canal dans les modulations non linéaires à phase continue ou les fonctions de décodage source et décodage canal dans le codage source-canal conjoint. Cette thèse a pour thème principal la recherche et l’analyse de nouvelles applications du principe turbo. Elle se compose de deux grandes parties. La première partie de la thèse est consacrée à la conception de codes multiniveaux à haute efficacité spectrale pour le canal gaussien. Les schémas proposés impliquent une multitude de petits codes composants linéaires, convolutifs ou en blocs, concaténés ou non. Le décodage optimal symbole par symbole à entrées et sorties pondérées des codes linéaires en blocs, pour lesquels la recherche d’un treillis représentatif aussi peu complexe que possible constitue un problème fondamental, fait l’objet d’une étude approfondie (chapitre 2, en français). Le paramétrage (longueur, rendements par niveau, etc. ) et les performances des codes multiniveaux sont optimisés sous l’hypothèse d’un décodage multiétage itératif (chapitre 3, en anglais). La seconde partie de la thèse traite du problème du décodage en sortie de canaux sélectifs en fréquence de modulations codées concaténées, entrelacées au niveau bit ou pas. Nous examinons différentes approches à complexité réduite réalisant de manière complètement ou partiellement disjointe et itérative les opérations de détection/égalisation, décodage canal et estimation des coefficients de la réponse impulsionnelle du canal (chapitre 4, en anglais). Nous étendons ensuite ces approches au cas des modulations codées en treillis concaténées et des canaux à entrées et sorties multiples sélectifs en fréquence (chapitre 5, en anglais)
Far from concentrating on the theory error-correcting codes (e. G. , turbo codes), the renewed interest for iterative methods has spread to the entire communications theory and lead to the advent of a real turbo principle. In the classical theory, the different elements which make up the receiver (detector, equalizer, demodulator, channel decoder, source decoder) are activated sequentially only once in a given order. The propagation of soft decisions between those elements (in opposition to hard decisions) preserves all the information available at the channel output about the variables to estimate. But still remains the fundamental sub-optimality induced by the partitioning of the receiver chain into distinct specific functions, each of them acting with a partial knowledge on the others (especially the first ones on the last ones). The so-called turbo principle aims at recovering the optimality. It substitutes to the classical approach an iterative approach where the different functions of the receiver chain, formally identified to serially concatenated decoders and activated several times according to a given schedule, accept, deliver, and exchange constantly refined probabilistic information (referred to as extrinsic information) about the variables to estimate. The turbo detection is a first instance of the turbo principle. The basic idea consists in modelling the intersymbol interference channel (IIC) as a rate-1 time-varying convolutional code defined by a generator polynomial with complex coefficients. The serial concatenation of the error-correcting code and the IIC suggests the application of an iterative procedure between the two corresponding decoders, which, in effect, allows removing the intersymbol interference completely. Exploiting the highly structured nature of interfering signals, the turbo principle provides excellent results in multiuser detection as well. Other recent and promising applications are the demodulation of nonlinear continuous phase modulations or the decoding of joint source-channel codes. This PhD thesis is mainly focused on the identification and analysis of new instances of the turbo principle. The first part of the thesis is devoted to the design and iterative decoding of highly spectrally-efficient multilevel codes for the Gaussian channel. The proposed schemes involve a multitude of small linear component codes, convolutional or block, and concatenated or not. The optimal symbol-by-symbol decoding of linear block codes, for which finding a representative trellis as reduced as possible in complexity constitutes a fundamental issue, is thoroughly investigated (chapter 2, in French). The parametrization (length, rates at each level, etc. ) and the performance of the multilevel codes are optimized under iterative multistage decoding (chapter 3, in English). The second part of the thesis deals with near-optimal decoding of serially concatenated modulations, bit-interleaved or not, when transmission occurs over frequency-selective channels. We investigate different reduced-complexity approaches to perform detection/equalization, channel decoding and channel estimation in a completely or partially disjoint and iterative fashion (chapter 4, in English). These approaches are then extended to serially concatenated space-time trellis-coded modulations and frequency-selective multiple-input multiple-output (MIMO) channels (chapter 5, in English)
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Roux, Claude Arthur Gaëtan. "Une méthode de parsage efficace pour les grammaires syntagmatiques généralisées". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1996. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq21510.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Mezmaz, Mohand. "Une approche efficace pour le passage sur grilles de calcul de méthodes d'optimisation combinatoire". Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Mezmaz.pdf.

Texto completo
Resumen
La résolution exacte de problèmes d'optimisation combinatoire de grande taille constitue un défi pour les grilles. En effet, il est nécessaire de repenser les algorithmes de résolution pour prendre en compte les caractéristiques de tels environnements. Notamment leur grande échelle. L'hétérogénéité et la disponibilité dynamique de leurs ressources. Et leur nature multi-domaine d'administration. Dans cette thèse, nous avons proposé une nouvelle approche de passage sur grilles des méthodes exactes de type Branch-and-Bound appelée B&B@Grid. Cette approche est basée sur un codage des unités de travail sous forme d'intervalles permettant de minimiser le coût des communications induites par les opérations de régulation de charge, de tolérance aux pannes et de détection de la terminaison. Cette approche. Environ 100 fois plus performante en terme de coût de communication que la meilleure approche connue. A permis la résolution optimale sur la grille nationale Grid5000 d'une instance standard du problème du Flow-Shop restée non résolue depuis une quinzaine d'années. Pour accélérer la résolution. Nous avons également étudié la coopération sur la grille de la méthode exacte avec une méta-heuristique parallèle hybride. Deux modes de coopération ont été considérés : le mode relais où la méta-heuristique est exécutée avant la méthode exacte, le mode co-évolutionnaire où les deux méthodes sont exécutées en parallèle. La mise en oeuvre d'une telle coopération sur la grille nous a amené il proposer une extension du modèle de coopération Linda
The exact resolution of large combinatorial optimization problems is a challenge for grids. Indeed, it is necessary to rethink the resolution algorithms to take into account the characteristics of such environments, in particular their large-scale, the heterogeneity and the dynamic availability of their resources, and their multi-domain administration. Ln this thesis, we propose a new approach, called B&B@Grid, to adapt exact methods for grids. This approach is based on coding work units in the form of intervals in order to minimize the cost of communications caused by the operations of load balancing, fault tolerance and detection of termination. This approach, about 100 times more efficient than the best known approach in term of communication cost, led to the optimal resolution on the Grid5000 of a standard instance of the Flow-Shop problem remained unsolved for fifteen years. To accelerate the resolution, we also deal with cooperation on the grid of exact methods with meta-heuristics. Two cooperation modes have been considered: the relay mode where a meta-heuristic is performed before an exact method, and the co-evolutionary mode where both methods are executed in parallel. The implementation of this cooperation on a grid has led us to propose an extension of the Linda coordination model
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Garnier, Robert. "Une méthode efficace d'accélération de la simulation des réseaux de Petri stochastiques". Bordeaux 1, 1998. http://www.theses.fr/1998BOR10593.

Texto completo
Resumen
L'analyse des performances des systemes a haut niveau de surete requiert souvent l'usage de methodes de simulation, qui sont alors confrontees au probleme pose par les evenements rares. Pour contourner ce probleme, une methode d'acceleration de la simulation, denommee methode du conditionnement temporel, est proposee. Appliquee aux reseaux de petri stochastiques, elle permet, en forcant l'occurrence de certains evenements, d'augmenter la probabilite d'occurrence des evenements rares, sans induire de biais. Son efficacite est demontree sur des cas d'application issus d'etudes industrielles reelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Stanczak, Arnaud. "La méthode de la "classe puzzle" est-elle efficace pour améliorer l'apprentissage ?" Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAL013.

Texto completo
Resumen
Ce travail de recherche a pour objectif de tester les effets de la classe puzzle, ou « Jigsaw classroom », sur les apprentissages. La méthode Jigsaw est une pédagogie coopérative créée par Aronson et collaborateurs dans les années 1970, afin de favoriser l’inclusion des minorités ethniques (e.g, Mexicain·es et Afro-Américain·es) dans les écoles nouvellement désegréguées. Selon la théorie de l’interdépendance sociale les effets positifs de l’apprentissage coopératif dépendent de la structuration des interactions entre individus (Deutsch, 1949 ; Johnson & Johnson, 1989). Dans Jigsaw, la structuration de cette interdépendance provient essentiellement de la distribution de ressources complémentaires : chaque individu dispose d’une « pièce du puzzle » à reconstituer à l’aide des autres membres du groupe. La coordination des efforts entre membres devrait amener ces dernier‧es à mettre en place des interactions facilitatrices (e.g., comportements d’entraide, explications et questionnements) et aboutir à un meilleur apprentissage. Toutefois, bien que cette méthode soit présentée par ses concepteur·rices comme un outil efficace pour améliorer l’apprentissage des élèves, les preuves empiriques tendent à manquer. Dans cette thèse, l’efficacité de Jigsaw sera questionnée à travers une analyse de la littérature scientifique, ainsi qu’une méta-analyse sur les travaux récents et un ensemble d’études expérimentales menées auprès d’élèves de sixième. À notre connaissance, bien que certaines recherches testant les effets de Jigsaw soient compilées dans des méta-analyses (Kyndt et al., 2013), il n’existe pas à ce jour de méta-analyses testant spécifiquement les effets de Jigsaw sur les apprentissages. À travers six chapitres, nous tenterons d’apporter des éléments permettant d’évaluer l’efficacité de la méthode Jigsaw sur les apprentissages. Dans le chapitre 1, nous présentons la théorie de l’interdépendance sociale, plusieurs définitions et manières de structurer de la coopération entre élèves ainsi qu’une revue des leurs effets sur les apprentissages. Nous développons l’idée qu’il existe des différences d’efficacité entre les pédagogies coopératives créées entre les années 1960 et 2000 (Newmann & Thompson, 1987 ; Johnson et al., 2000), et que certaines d’entre elles n’ont pas encore fait l’objet d’une validation empirique solide. Le chapitre 2 examine l’une d’elle en détail : Jigsaw (Aronson et al., 1978 ; Aronson & Patnoe, 2011). Nous y décrivons l’évolution des études empiriques menées depuis sa création jusqu’à ce jour. Le chapitre 3 pointe certaines limites de cette littérature, notamment par rapport à la puissance statistique et les procédures méthodologiques, ainsi que les impacts qu’elles peuvent avoir sur l’estimation de l’efficacité de Jigsaw sur les apprentissages. Nous y développons aussi notre hypothèse de recherche, son opérationnalisation ainsi que les outils et procédures statistiques que nous utilisons dans les chapitres empiriques : tests d’équivalence (Lakens, 2017), plus petite taille d’effet d’intérêt (Hattie, 2009) et méta-analyses (Borenstein et al., 2010 ; Goh et al., 2016). Le chapitre 4 présente les résultats d’une méta-analyse des effets de Jigsaw sur les apprentissages, à travers des articles empiriques publiés entre les années 2000 et 2020. Nous testons plusieurs modérateurs (e.g., niveau scolaire, discipline étudiée, type de Jigsaw, localisation des recherches) afin de quantifier la dispersion des effets de Jigsaw et de mieux comprendre l’hétérogénéité entre les études. Le chapitre 5 synthétise cinq études menées auprès de populations de collégien·nes français·es dans lesquelles nous testons l’efficacité de Jigsaw sur les apprentissages comparativement à des conditions de travail individuelles (études 1 et 2), ou d’enseignement habituel avec des enseignant‧es volontaires (études 3A, 3B et 3C). [...]
The objective of this thesis is to test the effect of the Jigsaw classroom on learning. The Jigsaw classroom is a cooperative technique created by Aronson and his colleagues in the 1970s to promote the inclusion of ethnic minorities (e.g., Mexican and African-American) in desegregated schools. Although this method is presented by its developers as an effective tool for improving student learning, empirical evidence is lacking. According to the social interdependence theory, the structure of interactions between individuals determine the effects of cooperative learning (Deutsch, 1949; Johnson & Johnson, 1989). In Jigsaw, this structure comes from the distribution of complementary resources: each individual owns a “jigsaw piece”, namely a piece of information which requires the coordination of efforts among members to answer a problematic. With the help of other group members, promotive interactions (e.g., helping behaviors, explanations and questioning) should emerge which results in a better learning for the members. In this thesis, Jigsaw's effectiveness will be evaluated through a review of the scientific literature, as well as a meta-analysis of recent research and a set of experimental studies conducted among french sixth graders. To our knowledge, the experimental study of Jigsaw’s effects on learning in student populations is almost non-existent in the scientific literature and even though some research testing these effects is compiled in meta-analyses (Kyndt et al., 2013), there are no meta-analyses to date that specifficaly adress the question of Jigsaw's effects on learning. Hence, the research presented in this manuscript will attempt to evaluate the effectiveness of the Jigsaw method on learning. In Chapter 1, we present “social interdependence theory” (Johnson & Johnson, 1989, 2002, 2005), several definitions and ways of structuring cooperation between students, as well as a review of their effects on learning. Chapter 2 examines one of these cooperative technique in detail: Jigsaw (Aronson et al., 1978; Aronson & Patnoe, 2011). We describe the evolution of empirical studies conducted from its conception to the present day. Chapter 3 points out some of the limitations of this literature, particularly in terms of statistical power, and the impacts it may have on the estimation of Jigsaw's effectiveness on learning. We also develop our main hypothesis, its operationalization and the statistical tools and procedures we use in the empirical chapters: equivalence tests (Lakens, 2017), smallest effect size of interest (Hattie, 2009) and meta-analyses (Borenstein et al., 2010; Goh et al., 2016). Chapter 4 presents the results of a meta-analysis of Jigsaw's effects on learning, which synthesized empirical articles published between 2000 and 2020. We test several moderators (e.g., grade level, discipline, type of Jigsaw, location of research) in order to quantify the dispersion of Jigsaw effects and to assess heterogeneity between studies. Chapter 5 compiles five studies conducted among french sixth graders in which we test the effectiveness of Jigsaw on learning, compared to an “individual” (studies 1 and 2) or a “teaching as usual’ condition (studies 3A, 3B and 3C). The results of this chapter are interpreted with regard to the meta-analysis and the debates related to the structure of Jigsaw. In the last chapter of this manuscript, we summarize the main results developed trough the theoretical and empirical chapters. The contributions and limitations of our research are developed, as well as theoretical and practical perspectives to overcome them in view of future research
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Pebernet, Laura. "Etude d'un modèle Particle-In-Cell dans une approximation Galerkin discontinue pour les équations de Maxwell-Vlasov : recherche d'une solution hybride non conforme efficace". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1080/.

Texto completo
Resumen
Cette thèse présente l'étude et le développement d'un outil de simulation numérique efficace pour la modélisation de l'interaction plasma/micro-ondes, à partir d'un solveur électromagnétique basé sur une approximation Galerkin Discontinue (GD). Le travail est organisé en deux parties principales. Tout d'abord, nous développons un modèle Particle-In-Cell (PIC) approprié au schéma GD. Pour cela, d'une part, nous proposons un modèle de correction hyperbolique pour la prise en compte de la loi de conservation de la charge et, d'autre part, nous intégrons des modèles physiques propres au plasma tels que les sources micro-ondes de forte puissance, les surfaces d'émission de particules et les faisceaux d'électrons. Ensuite, nous nous orientons vers la recherche de performances optimales pour le couplage Maxwell-Vlasov afin d'augmenter l'efficacité et la taille des applications à traiter. Cette recherche conduit à l'étude d'une hybridation non conforme de méthodes pour résoudre le problème Maxwell-Vlasov. Dans un premier temps, nous travaillons sur une méthode hybride entre différents schémas numériques pour la résolution d'un problème Maxwell 1D sur des maillages non conformes. Dans un second temps, nous nous intéressons au cas d'un problème 2D en mode TE, dans l'optique d'introduire un modèle PIC. Finalement, nous réalisons une hybridation FDTD/FDTD sur deux maillages non coïncidents pour les équations Maxwell-Vlasov 2D
This thesis presents the study and the development of an efficient numerical simulation's tool for the modeling of plasma/microwave interaction in an electromagnetic software based upon a Discontinuous Galerkin (DG) scheme. This work is organized following two main steps. First, we develop a Particle-In-Cell (PIC) model appropriate for DG scheme. For this, on the one hand, we propose a hyperbolic corrector method to take into account the charge conservation law and, on the other hand, we integrate physical plasma models such as high power microwave sources, emission particles surfaces and electrons beams. Then, we propose also optimal performances for the coupling of Maxwell-Vlasov equations in order to increase the efficiency and the size of the applications to treat. This leads to study a non conformal hybridization of methods to solve the Maxwell-Vlasov problem. In the first time, we work on a hybrid method between different numerical schemes to solve a 1D Maxwell problem on non conformal meshes. In the second time, we interest in a 2D TE Maxwell problem, in order to introduce a PIC model. Finally, we realise a FDTD/FDTD hybridization on two non coincident meshes for the 2D Maxwell-Vlasov system
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Galhaut, Bastien. "Etude de la mesure de la section efficace de la réaction 16O(n,alpha)¹³C du seuil à 10 MeV". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC231/document.

Texto completo
Resumen
SCALP (Scintillating ionization Chamber for ALpha particle production in neutron induced reactions) est un dispositif expérimental conçu pour la mesure de la section efficace de la réaction O-16(n,alpha)C-13. Cette réaction fait partie de la HPRL (High Priority Request List) de la NEA. Elle est très importante pour la physique des réacteurs car la production d'hélium a des conséquences sur le fonctionnement des réacteurs électrogènes à neutrons thermiques et neutrons rapides.Les simulations Monte Carlo effectuées avec Geant4 montrent que le dispositif conçu (une chambre d'ionisation scintillante entourée de quatre photo-multiplicateurs) est apte à la mesure de la section efficace. Les sections efficaces des réactions O-16(n,alpha)C-13 et F-19(n,alpha)N-16 (réaction nucléaire étudiée pour la normalisation en section efficace) entre le seuil en énergie et 10MeV peuvent être mesurées expérimentalement avec une erreur relative minimale de 15%.Toutefois, il faudra en améliorer les performances pour obtenir de plus faibles incertitudes comme requis par la NEA : une mesure de la section efficace de la réaction O-16(n,alpha)C-13 avec une précision inférieure à 10%
SCALP (Scintillating ionization Chamber for ALpha particle production in neutron induced reactions) is an experimental device conceived to measure the cross section of the n-induced reaction on oxygène O-16(n,alpha)C-13. This latter reaction belongs to the HPRL (High Priority Request List) NEA list and is relevant in reactor physics because of the helium production affecting important fast and thermal neutron reactor's parameters.The Monte Carlo simulations with Geant4 showed that the device (a scintillating ionization chamber surrounded by four photomultipliers tubes) can measure and discriminate the different reactions inside the scintillating ion chamber. Cross section of O-16(n,alpha)C-13 and F-19(n,alpha)N-16 (used for cross section normalisation) reactions between the energy threshold and 10MeV could be experimentally measured with a 15% relative accuracy. However some improvement will be necessary to obtain lower uncertainties as requested by the NEA : O-16(n,alpha)C-13 cross section measurement with a accuracy better than 10%
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Boillod-Cerneux, France. "Nouveaux algorithmes numériques pour l'utilisation efficace des architectures de calcul multi-coeurs et hétérogènes". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10137/document.

Texto completo
Resumen
Depuis la naissance des supercalculateurs jusqu'à l'arrivée de machines Petaflopiques, les technologies qui les entourent n'ont cessé d'évoluer à une vitesse fulgurante. Cette course à la performance se heurte aujourd'hui au passage à l'Exascale, qui se démarque des autres échelles par les difficultés qu'elle impose: Les conséquences qui en découlent bouleversent tous les domaines scientifiques relatifs au Calcul Haute Performance (HPC). Nous nous plaçons dans le contexte des problèmes à valeurs propres, largement répandus: du page ranking aux simulation nucléaires, astronomie, explorations pétrolifères...Notre démarche comporte deux thématiques complémentaires: Nous proposons d'étudier puis d'améliorer la convergence de la méthode Explicitely Restarted Arnoldi Method (ERAM) en réutilisant les informations générées. L'étude de la convergence et sa caractérisation sont indispensable pour pouvoir mettre en place des techniques de Smart-Tuning. La phase d'amélioration consiste à utiliser les valeurs de Ritz de manière efficace afin d'accélérer la convergence de la méthode sans couts supplémentaires en termes de communications parallèles ou de stockage mémoire, paramètres indispensables pour les machines multi-coeurs et hétérogènes. Enfin, nous proposons deux méthodes pour générer des matrices de très larges dimensions aux spectres imposés afin de constituer une collection de matrices de tests qui seront partagées avec la communauté du HPC. Ces matrices serviront à valider numériquement des solveurs de systèmes à valeurs propres d'une part, et d'autre part de pouvoir évaluer leur performances parallèles grâce à leur propriétés adaptées aux machines petaflopiques et au-delà
The supercomputers architectures and programming paradigms have dramatically evolve during the last decades. Since we have reached the Petaflopic scale, we forecast to overcome the Exaflopic scale. Crossing this new scale implies many drastic changes, concerning the overall High Performance Computing scientific fields. In this Thesis, we focus on the eigenvalue problems, implied in most of the industrial simulations. We first propose to study and caracterize the Explicitly Restarted Arnoldi Method convergence. Based on this algorithm, we re-use efficiently the computed Ritz-Eigenvalues to accelerate the ERAM convergence onto the desired eigensubspace. We then propose two matrix generators, starting from a user-imposed spectrum. Such matrix collections are used to numerically check and approve extrem-scale eigensolvers, as well as measure and improve their parallel performance on ultra-scale supercomputers
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Sicot, Frédéric. "Simulation efficace des écoulements instationaires périodiques en turbomachines". Ecully, Ecole centrale de Lyon, 2009. http://www.theses.fr/2009ECDL0019.

Texto completo
Resumen
De nombreuses applications industrielles impliquent des écoulements périodiques en temps. La détermination d’une frontière de flottement d’une aile ou les écoulements rencontrés dans les compresseurs de moteurs d’avions constituent quelques exemples. Les méthodes instationnaires classiques de simulation ne sont pas assez efficaces puisque l’état périodique n’est atteint qu’après un long transitoire. De nouvelles méthodes dédiées à ce type d’écoulements ont été étudiées récemment. Ces méthodes, dites d’équilibrage harmonique, permettent de simuler un écoulement périodique en temps à l’aide de plusieurs calculs stationnaires couplés. L’efficacité de ces méthodes permet d’obtenir un degré de précision suffisant pour l’ingénieur beaucoup plus rapidement que les méthodes classiques. Cette thèse se propose de mettre en oeuvre l’une de ces méthodes, la Time Spectral Method (TSM), dans le solveur elsA de l’Onera. Elle est étendue à une formulation prenant en compte les déformations de maillage pour des applications en aéroélasticité et des algorithmes implicites sont également développés afin d’améliorer la robustesse. La TSM est d’abord validée avec succès sur des applications d’aérodynamique externe. L’extension aux turbomachines nécessite des interpolations temporelles et spatiales complexes pour réduire le domaine de calcul à un seul canal par roue quelque soit la géométrie. Des applications d’interactions rotor/stator et d’aéroélasticité sont présentées
Many industrial applications involve flows periodic in time. Flutter prediction or turbomachinery flows are some examples. Such flows are not simulated with enough efficiency when using classical unsteady techniques as a transient regime must be by-passed. New techniques, dedicated to time-periodic flows and based on Fourier analysis, have been developed recently. These methods, called harmonic balance, cast a time-periodic flow computation in several coupled steady computations, corresponding to a uniform sampling of the period. Their efficiency allow to get a precision good enough for engineering but much faster than classical nonlinear timemarching algorithms. The present study aims at imlementing one of these, the Time Spectral Method, in the ONERA solveur elsA. It is extended to an arbitrary lagrangian/eulerian formulation to take into mesh deformation for aeroelasticity applications. New implicit algorithms are developped to improve robustness. The TSM is successfully validated on external aerodynamic applications. Turbomachinery flows necessitate complex space and time interpolations ro reduce the computational domain to a single blade passage per row regardless of its geometry. Some applications in rotor/stator interactions and aeroelasticity are presented
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Griset, Rodolphe. "Méthodes pour la résolution efficace de très grands problèmes combinatoires stochastiques : application à un problème industriel d'EDF". Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0219/document.

Texto completo
Resumen
Cette thèse s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management d’énergie d'EDF. Une première partie propose une formulation étendue bi-niveau dans laquelle les décisions de premier niveau fixent les plannings d’arrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant d’en résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de l’incertitude sur les données. L’apport de l’approche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte d’aléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget d’incertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte d’une loi de probabilité de l’aléa permet d’affiner le contrôle du prix de cette robustesse
The purpose of this Ph.D. thesis is to study optimization techniques for large-scale stochastic combinatorial problems. We apply those techniques to the problem of scheduling EDF nuclear power plant maintenance outages, which is of significant importance due to the major part of the nuclear energy in the French electricity system. We build on a two-stages extended formulation, the first level of which fixes nuclear outage dates and production profiles for nuclear plants, while the second evaluates the cost to meet the demand. This formulation enables the solving of deterministic industrial instances to optimality, by using a MIP solver. However, the computational time increases significantly with the number of scenarios. Hence, we resort to a procedure combining column generation of a Dantzig-Wolfe decomposition with Benders’ cut generation, to account for the linear relaxation of stochastic instances. We then obtain integer solutions of good quality via a heuristic, up to fifty scenarios. We further assume that outage durations are uncertain and that unexpected shutdowns of plants may occur. We investigate robust optimization methods in this context while ignoring possible recourse on power plants outage dates. We report on several approaches, which use bi-objective or probabilistic methods, to ensure the satisfaction of constraints which might be relaxed in the operating process. For other constraints, we apply a budget uncertainty-based approach to limit future re-organizations of the scheduling. Adding probabilistic information leads to better control of the price of the robustness
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Younis, Georges. "Modélisation électrique des décharges RF dans des mélanges N2O/He pour applications aux dépôts PECVD utilisés en micro-électronique". Toulouse 3, 2005. http://www.theses.fr/2005TOU30145.

Texto completo
Resumen
Ce travail de thèse est consacré à la modélisation du comportement électrique et énergétique des décharges RF à basse pression et température, dans les mélanges N2O/He, sous différentes tensions et pressions. Un modèle particulaire basé sur la technique Monte Carlo couplée à l'équation de Poisson est développé à cette fin. Parmi les résultats de ce modèle, on peut citer, entre autres, la puissance dissipée, le champ et potentiel électriques, les fonctions de distribution, les coefficients et taux de réaction, l'énergie déposée, les paramètres de réaction et de transport ainsi que les densités des particules chargées. Dans le N2O pur comme dans le mélange N2O/He, les rôles des différents processus collisionnels, sur l'équilibre et l'entretien de la décharge, ont été analysés. On a montré que la décharge N2O/He, au moins jusqu'à 85% d'hélium, se comporte comme celle du N2O pur mais avec des énergies moyennes électroniques et ioniques qui augmentent avec le pourcentage d'hélium. L'étude énergétique de la décharge est faite en développant une nouvelle technique de calcul de la puissance, basée sur la comptabilisation des énergies déposées dans le milieu suite à chaque processus collisionnel
This work of thesis is dedicated to the modelling of the electric and energetic behaviour of RF discharges at low pressure and temperature, in the N2O/He mixtures, under different voltages and pressures. A particle model based on the Monte Carlo technique coupled to the Poisson equation is developed to reach this target. Among the results of this model, one can mention, among others, the dissipated power, the electric field and potential, the distribution functions, the reaction coefficients and reaction rates, the deposited energy, the parameters of reaction and transport as well as the densities of the charged particles. In the pure N2O as in the N2O/He mixture, the roles of the different collisional process, on the equilibrium and the maintenance of the discharge, have been highlighted. We showed that the N2O/He discharge, at least until 85% of helium, behave as the one of the pure N2O but with electronic and ionic average energies that increase with the percentage of helium. The energetic study of the discharge is made with the help of a new technique of power calculation, based on the counting of the energies deposited in the medium after every collisional process
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Nguyen, Minh Khoa. "Exploration efficace de chemins moléculaires par approches aussi rigides que possibles et par méthodes de planification de mouvements". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM013/document.

Texto completo
Resumen
Les protéines sont des macromolécules participant à d’importants processus biophysiques de la vie des organismes. Or, il a été démontré que des variations de leur structure peuvent conduire à des changements de fonction en lien avec certaines maladies telles que celles associées à des processus neurodégénératifs. Ainsi, tant pour la communauté scientifique que pour l’industrie médicale, il est capital d’avoir une meilleure compréhension de la structure de ces protéines, ainsi que de leurs interactions avec d’autres molécules, ce en vue d’inventer et d’évaluer de nouveaux médicaments.Au cours de ces travaux de thèse, nous nous sommes particulièrement intéressés au développement de nouvelles méthodes de recherche de chemins biologiquement faisables entre deux états connus pour un système composé d’une protéine ou d’une protéine et d’un ligand. Au cours des dernières décennies, une grande quantité d’approches algorithmiques ont été proposées pour faire face à ce problème. Pourtant, les méthodes développées sont encore aujourd’hui confrontées à deux grands défis : d’une part la haute dimension des espaces de recherche, associée au grand nombre d’atomes impliqués, d’autre part la complexité des interactions entre ces atomes.Cette dissertation propose deux nouvelles méthodes pour obtenir de manière efficace des chemins pertinents pour des systèmes moléculaires. Ces méthodes sont rapides et génèrent des solutions qui peuvent ensuite être analysées ou améliorées à l’aide de méthodes d’avantage spécialisées. La première approche proposée produit des chemins d’interpolation pour systèmes biomoléculaires, à l’aide des approches dites aussi-rigides-que-possible, (ARAP) utilisées en animation graphique. Cette méthode est robuste et génère des solutions préservant au mieux la rigidité du système d’origine. Une extension de cette méthode basée sur des critères énergétiques a également été proposée et s’est avérée capable d’améliorer de manière significative les chemins solution. Cependant, pour les scénarios nécessitant de complexes déformations, cette approche géométrique peut conduire à des chemins solution non naturels. Nous avons donc proposé une seconde méthode appelée ART-RRT, qui utilise l’approche ARAP pour réduire la dimensionalité de l’espace et la combine avec les arbres d’exploration RRT (Rapidely-exploring Random Tree) issus de la Robotique, afin d’explorer efficacement les chemins possibles de l’espace.En plus de fournir une variété de solutions en temps raisonnable, cette ART-RRT produit des chemins de faible énergie, sans collision et dont la rigidité est préservée autant que possible. Des versions monodirectionnelles de bidirectionelles de cette méthode ont été proposées et appliquées respectivement à la recherche de chemin d’extraction d’un ligand hors du site actif d’une protéine, ainsi qu’a la recherche de chemin de transition conformationnelle pour protéine seule. Les solutions trouvées se sont avérées être en accord avec les données expérimentales ainsi qu’avec les solutions issues de l’état de l’art
Proteins are macromolecules participating in important biophysical processes of living organisms. It has been shown that changes in protein structures can lead to changes in their functions and are found linked to some diseases such as those related to neurodegenerative processes. Hence, an understanding of their structures and interactions with other molecules such as ligands is of major concern for the scientific community and the medical industry for inventing and assessing new drugs.In this dissertation, we are particularly interested in developing new methods to find for a system made of a single protein or a protein and a ligand, the pathways that allow changing from one state to another. During past decade, a vast amount of computational methods has been proposed to address this problem. However, these methods still have to face two challenges: the high dimensionality of the representation space, associated to the large number of atoms in these systems, and the complexity of the interactions between these atoms.This dissertation proposes two novel methods to efficiently find relevant pathways for such biomolecular systems. The methods are fast and their solutions can be used, analyzed or improved with more specialized methods. The first proposed method generates interpolation pathways for biomolecular systems using the As-Rigid-As-Possible (ARAP) principle from Computer Graphics. The method is robust and the generated solutions preserve at best the local rigidity of the original system. An energy-based extension of the method is also proposed, which significantly improves the solution paths. However, in scenarios requiring complex deformations, this geometric approach may still generate unnatural paths. Therefore, we propose a second method called ART-RRT, which combines the ARAP principle for reducing the dimensionality, with the Rapidly-exploring Random Trees from Robotics for efficiently exploring possible pathways. This method not only gives a variety of pathways in reasonable time but the pathways are also low-energy and clash-free, with the local rigidity preserved as much as possible. The mono-directional and bi-directional versions of the ART-RRT method were applied for finding ligand-unbinding and protein conformational transition pathways, respectively. The results are found to be in good agreement with experimental data and other state-of-the-art solutions
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Burrus, Nicolas. "Apprentissage a contrario et architecture efficace pour la détection d'évènements visuels significatifs". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://pastel.archives-ouvertes.fr/pastel-00610243.

Texto completo
Resumen
Pour assurer la robustesse d'un algorithme de détection, il est nécessaire de maîtriser son point de fonctionnement, et en particulier son taux de fausses alarmes. Cette tâche est particulièrement difficile en vision artificielle à cause de la grande variabilité des images naturelles, qui amène généralement à introduire des paramètres choisis a priori qui limitent la portée et la validité des algorithmes. Récemment, l'approche statistique a contrario a montré sa capacité à détecter des structures visuelles sans autre paramètre libre que le nombre moyen de fausses alarmes tolérées, en recherchant des entités dont certaines propriétés sont statistiquement trop improbables pour être le fruit du hasard. Les applications existantes reposent toutefois sur un cadre purement analytique qui requiert un travail important de modélisation, rend difficile l'utilisation de caractéristiques multiples et limite l'utilisation d'heuristiques de recherche dirigées par les données. Nous proposons dans cette thèse d'assouplir ces restrictions en ayant recours à de l'apprentissage pour les quantités non calculables analytiquement. Nous illustrons l'intérêt de la démarche à travers trois applications : la détection de segments, la segmentation en régions homogènes et la détection d'objets à partir d'une base de photos. Pour les deux premières applications, nous montrons que des seuils de détection robustes peuvent être appris à partir d'images de bruit blanc. Pour la dernière, nous montrons que quelques exemples d'images naturelles ne contenant pas d'objets de la base suffisent pour obtenir un algorithme de détection fiable. Enfin, nous remarquons que la monotonicité du raisonnement a contrario permet d'intégrer incrémentalement des informations partielles. Cette propriété nous conduit à proposer une architecture "anytime" pour la détection d'objets, c'est-à-dire capable de fournir des détections progressivement au cours de son exécution, en commençant par les objets les plus saillants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Thebault, Loïc. "Algorithmes Parallèles Efficaces Appliqués aux Calculs sur Maillages Non Structurés". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLV088/document.

Texto completo
Resumen
Le besoin croissant en simulation a conduit à l’élaboration de supercalculateurs complexes et d’un nombre croissant de logiciels hautement parallèles. Ces supercalculateurs requièrent un rendement énergétique et une puissance de calcul de plus en plus importants. Les récentes évolutions matérielles consistent à augmenter le nombre de noeuds de calcul et de coeurs par noeud. Certaines ressources n’évoluent cependant pas à la même vitesse. La multiplication des coeurs de calcul implique une diminution de la mémoire par coeur, plus de trafic de données, un protocole de cohérence plus coûteux et requiert d’avantage de parallélisme. De nombreuses applications et modèles actuels peinent ainsi à s’adapter à ces nouvelles tendances. En particulier, générer du parallélisme massif dans des méthodes d’éléments finis utilisant des maillages non structurés, et ce avec un nombre minimal de synchronisations et des charges de travail équilibrées, s’avèrent particulièrement difficile. Afin d’exploiter efficacement les multiples niveaux de parallélisme des architectures actuelles, différentes approches parallèles doivent être combinées. Cette thèse propose plusieurs contributions destinées à paralléliser les codes et les structures irrégulières de manière efficace. Nous avons développé une approche parallèle hybride par tâches à grain fin combinant les formes de parallélisme distribuée, partagée et vectorielle sur des structures irrégulières. Notre approche a été portée sur plusieurs applications industrielles développées par Dassault Aviation et a permis d’importants gains de performance à la fois sur les multicoeurs classiques ainsi que sur le récent Intel Xeon Phi
The growing need for numerical simulations results in larger and more complex computing centers and more HPC softwares. Actual HPC system architectures have an increasing requirement for energy efficiency and performance. Recent advances in hardware design result in an increasing number of nodes and an increasing number of cores per node. However, some resources do not scale at the same rate. The increasing number of cores and parallel units implies a lower memory per core, higher requirement for concurrency, higher coherency traffic, and higher cost for coherency protocol. Most of the applications and runtimes currently in use struggle to scale with the present trend. In the context of finite element methods, exposing massive parallelism on unstructured mesh computations with efficient load balancing and minimal synchronizations is challenging. To make efficient use of these architectures, several parallelization strategies have to be combined together to exploit the multiple levels of parallelism. This P.h.D. thesis proposes several contributions aimed at overpassing this limitation by addressing irregular codes and data structures in an efficient way. We developed a hybrid parallelization approach combining the distributed, shared, and vectorial forms of parallelism in a fine grain taskbased approach applied to irregular structures. Our approach has been ported to several industrial applications developed by Dassault Aviation and has led to important speedups using standard multicores and the Intel Xeon Phi manycore
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Massas, Pierre Guironnet de. "Etude de méthodes et mécaniqmes pour un accès transparent et efficace aux données dans un systèmes multiprocesseur sur puce". Grenoble INPG, 2009. https://tel.archives-ouvertes.fr/tel-00434379.

Texto completo
Resumen
Afin de fournir toujours plus de puissance de calcul les architectes intègrent plusieurs dizaines de processeurs dans une même puce. Le but de nos travaux est d'améliorer l'efficacité des accès aux données à l'aide de solutions entièrement transparentes au logiciel. Notre contexte vise les machines multiprocesseurs à base de NoC qui possèdent des caches L1 et de la mémoire partagée et distribuée. Dans une première partie nous montrons que la redéfinition des contraintes dans les systèmes embarqués rend l'utilisation du protocole de cohérence write-through invalidate envisageable. Nous présentons également une solution innovante pour évaluer et comparer les protocoles de cohérence mémoire. Dans une deuxième partie nous présentons une solution innovante à la migration des données dans la puce. Celle-ci, gérée par le matériel, vise à placer dynamiquement et intelligemment les données afin de diminuer le coût d'accès moyen à la mémoire
In order to provide evermore computational power, architects integrates dozen of processors in the same chip. The main goal of our work is to enhance data accesses using software-seamless solutions. Our context targets NoC based muliprocessor systems which contains L1 caches and distributed shared memory. In a first part, we show that the constraints evolution in embedded systems makes possible the usage of a write-through invalidate coherence protocol in such systems. We present also a novel method to evaluate and compare memory coherence protocols. In the second part we present a novel solution for on-chip data migration. It is hardware driven, and it dynamically and wisely places the data in order to decrease the mean cost access to memory
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Bossé, Mathieu. "La réalisation audionumérique DIY de groupes rock au Québec : pour une méthode de travail plus efficace". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/36713.

Texto completo
Resumen
Dans ce mémoire, nous nous penchons sur les processus créatifs et techniques d’enregistrement sonore de type DIY (Do It Yourself) pratiqués dans mes expériences avec différents groupes rock, punk, hardcore et alternatif de Québec. Les styles musicaux varient grandement d’un projet à l’autre, mais trois aspects sont communs à chaque groupe : 1) Ils sont issus d’une scène «underground» de la Ville de Québec. 2) Ils ont une instrumentation rock (pour nous, une instrumentation rock est composée des instruments suivants : batterie, guitare électrique, guitare basse et voix). 3) Ils enregistrent de manière DIY jusqu’à un certain niveau. Avec les avancées technologiques, l’enregistrement DIY est une pratique de plus en plus courante chez les groupes de musique. À notre expérience, les artistes œuvrant dans des scènes se rapprochant de la culture punk et underground sont souvent restreints par des ressources et des budgets limités ou ont simplement un désir de liberté créative lorsqu’il est temps d’enregistrer leurs chansons. Dans la recherche de l’indépendance, ils vont souvent opter pour l’approche DIY lorsqu’il est temps d’enregistrer une chanson ou un album, ce qui donne souvent une esthétique punk aux pistes audio. Dans ce partage d’expériences, l’objectif est d’analyser les méthodes de travail qui contribuent à obtenir des résultats de qualité en enregistrement DIY et d’en tirer une méthode efficace qui pourrait servir au DIYer en enregistrement. Nous croyons qu’en prenant connaissance de nos résultats et de nos analyses de chaque projet, un(e) artiste désirant enregistrer un projet musical de façon DIY sera en mesure de faire des choix plus sensés et éclairés par rapport à sa propre situation et son propre projet d’enregistrement. Enfin, j’offre mes observations et conclusions au réalisateur DIY pour qu’il analyse bien sa réalité unique à lui-même et à son ou ses projets d’enregistrement afin qu’il bénéficie d’une courbe d’apprentissage rapide et conviviale.
In this master’s thesis, we address the issue of creative processes and recording techniques in different DIY (Do It Yourself) settings as implemented through my experience with different rock, punk, hardcore and alternative bands in Quebec City. Musical styles greatly vary from one project to another, but all of the music groups share three common aspects : 1) They come from the underground scene around Quebec City. 2) They have a rock-type instrumentation (for us, a rock-type instrumentation is made up of minimum two of the following instruments: drums, electric guitar, electric bass and vocal.) 3) They record in a DIY setting, up to a certain point. With the rise of new technologies, DIY recording is more and more common in music bands. In our experience, artists from scenes close to the punk and underground cultures are often limited by their budget and resources or simply have a desire for creative liberty when recording their music. Seeking independence, they will often go for the DIY approach when the time has come for them to record a song or an album, which often lends a punk aesthetic to their audio tracks. This masters thesis seeks to analyse working methods that contribute to obtaining good quality results in DIY recording and to find an efficient methodology that could help the self-taught DIYer in recording music. We believe that by reading about these projects, with the analysis and feedback, an artist who wants to work in a DIY setting will be able to make better decisions in regard to their own recording project and situation. I also offer advice for the DIY recording artist to analyse his own unique recording reality and the one of his different recording projects in order for him to benefit from a faster and favorable learning curve.
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Liatard, Éric. "Mesures de sections efficaces totales de réaction avec des faisceaux d'ions lourds stables et radioactifs par la méthode du rayonnement associé". Grenoble 1, 1989. http://www.theses.fr/1989GRE10143.

Texto completo
Resumen
Nous avons mis au point une nouvelle methode de mesure directe de sections efficaces totales de reaction fondee sur l'utilisation d'un detecteur 4 pi modulaire. Dans un premier temps, des mesures ont ete effectuees avec des faisceaux d'ions lourds delivres par les accelerateurs sara et ganil dans la gamme d'energie 30-80 mev/u. Nous avons ensuite adapte notre dispositif aux mesures avec des faisceaux secondaires radioactifs (ligne lise du ganil). Les resultats obtenus couvrent une large gamme de projectiles legers comprenant des isotopes exotiques situes a la limite de la stabilite vis-a-vis de l'emission de neutrons. A partir des sections efficaces totales de reaction, les rayons carres moyens de ces projectiles sont calcules a l'aide d'un formalisme microscopique simple dont la validite est demontree par les resultats obtenus avec des faisceaux stables. Malgre la presence d'effets de structure marques (n pair- n impair), l'ensemble des isotopes etudies presente un rayon carre moyen normal excepte le #1#1be, le #1#4be et le #1#7b. Enfin, en utilisant les resultats de recents calculs haartree-fock, il est possible de determiner, a partir de nos donnees experimentales, les rayons carres moyens des distributions de neutrons des projectiles de n pairs. Ces rayons se comparent favorablement aux valeurs theoriques issues du meme calcul hartree-fock, excepte pour les cas ou l'extension spatiale des neutrons est tres importante (#1#4be et #1#7b)
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Dudouet, Jérémie. "Etude de la fragmentation du 12C sur cible mince à 95 MeV/A pour la hadronthérapie". Caen, 2014. http://www.theses.fr/2014CAEN2058.

Texto completo
Resumen
Afin d’améliorer les modèles nucléaires et d’atteindre la précision requise pour un code de simulation de référence en hadronthérapie, deux expériences ont été réalisées par notre collabora tion en mai 2011 et en septembre 2013 au GANIL. Leur but est d’étudier les réactions nucléaires à 95 MeV/A du 12 C sur les cibles minces d’intérêt médical pour mesurer les sections efficaces doublement différentielles de fragmentation pour chaque isotopes produits. Ces données expérimentales ont été comparées à des simulations Monte-Carlo. Différents modèles nucléaires disponibles dans le logiciel de simulation GEANT4 ont dans un premier temps été testés. Des écarts avec les données expérimentales allant jusqu’à plus d’un ordre de grandeur ont été observés. Le modèle phénoménologique HIPSE a ensuite été utilisé et a démontré que la prise en compte de la zone de recouvrement géométrique des noyaux en collisions doit être prise en compte afin de reproduire la cinématique des fragments créés aux énergies intermédiaires. Devant les difficultés encontrées par ces modèles pour reproduire les données expérimentales, un nouveau modèle, le modèle a finalement été développé, le modèle SLIIPIE. Il s’agit d’un modèle semi-microscopique, construit sur une approche géométrique participant-spectateur. Les résultats de ce modèle ont été comparés aux données expérimentales pour la réaction 12 C+12 C à 95 MeV/A et donne des résultats prometteurs
The nuclear models need to be improved in order to reach the required accuracy for a reference simulation code for hadrontherapy. In this context, two experiments have been performed by our collaboration on May 2011 and September 2013 at GANIL to study nuclear reactions of 95 MeV/u 12 C ions on thin targets of medical interest to measure the double differential fragmentation cross sections of each produced isotope. These experimental data have been compared with Monte-Carlo simulations. Different nuclear models provided by the GEANT4 simulation toolkit have firstly been tested. These simulations revealed discrepancies up to one order of magnitude. The phenomenological model HIPSE has then been used and has shown that the overlapping region of two colliding nuclei needs to be taken into account in order to reproduce the kinematics of the emitted fragments at intermediates energies. Due to the difficulties encountered by these models in the data reproduction, a new model is currently under development : SLIIPIE. This one is a semi-microscopical model, built from a participant-spectator geometrical approach. This model was also compared to the experimental data for 12 C+12 C reactions at 95 MeV/A giving promising results
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Portelenelle, Brice. "La méthode LS-STAG avec schémas diamants pour l'approximation de la diffusion : une méthode de type "cut-cell" précise et efficace pour les écoulements incompressibles en géométries 3D complexes". Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0136/document.

Texto completo
Resumen
La méthode LS-STAG est une méthode cartésienne pour le calcul d’écoulements incompressibles en géométries complexes, qui propose une discrétisation précise des équations de Navier-Stokes dans les cut-cells, cellules polyédriques de forme complexe créées par l’intersection du maillage cartésien avec la frontière du solide immergé. Originalement développée pour les géométries 2D, son extension aux géométries 3D se heurte au défi posé par le grand nombre de types de cut-cells (108) à considérer. Récemment, la méthode LS-STAG a été étendue aux géométries complexes 3D dont la frontière est parallèle à l’un des axes du repère cartésien, où sont uniquement présentes les contreparties extrudées des cut-cells 2D. Cette étude a notamment souligné deux points à élucider pour le développement d’une méthode totalement 3D : premièrement, le calcul des flux diffusifs par un simple schéma à deux points s’est révélé insuffisamment précis dans les cut-cells 3D-extrudées du fait de la non orthogonalité. Ensuite, l’implémentation de ces flux à la paroi, qui s’effectue en imposant une discrétisation distincte pour chaque type de cut-cell extrudée, se révèle trop complexe pour être étendue avec succès aux nombreux types supplémentaires de cut-cells 3D, et doit être simplifiée et rationalisée. Dans cette thèse, le premier point est résolu en utilisant l’outil des schémas diamants, d’abord étudié en 2D pour l’équation de la chaleur puis les équations de Navier-Stokes dans l’approximation de Boussinesq, puis étendu en 3D. En outre, les schémas diamants ont permis de revisiter intégralement la discrétisation du tenseur des contraintes des équations de Navier-Stokes, où disparaît le traitement au cas par cas selon la disposition de la frontière solide dans les cut-cells. Cela a permis d’aboutir à une discrétisation systématique, précise et algorithmiquement efficace pour les écoulements en géométries totalement 3D. La validation numérique de la méthode LS-STAG avec schémas diamants est présentée pour une série de cas tests en géométries complexes 2D et 3D. Sa précision est d’abord évaluée par comparaison avec des solutions analytiques en 2D, puis en 3D par la simulation d’un écoulement de Stokes entre deux sphères concentriques. La robustesse de la méthode est notamment mise en évidence par l’étude d’écoulements autour d’une sphère en rotation, dans les régimes laminaires (stationnaire et instationnaire), ainsi que pour un régime faiblement turbulent
The LS-STAG method is a cartesian method for the computations of incompressible flows in complex geometries, which consists in an accurate discretisation of the Navier-Stokes equations in cut-cells, polyhedral cells with complex shape made by the intersection of cartesian mesh and the immersed boundary. Originally developed for 2D geometries, where only three types of generic cut-cells appear, its extension to 3D geometries has to deal with the large amount of cut-cells types (108). Recently, the LS-STAG method had been extended to 3D complex geometries whose boundary is parallel to an axis of the cartesian coordinate system, where there are only the extruded counterparts of 2D cut-cells. This study highlighted two points to deal with in order to develop a totally 3D method: firstly, the computation of diffusive fluxes by a simple 2-points scheme has shown to be insufficiently accurate in 3D-extruded cut-cells due to the non-orthogonality. In addition to that, implementation of these fluxes on the immersed boundary, which is done with a case by case discretisation according to the type of the cut-cells, appears to be too difficult for its successful extension to the several extra types of 3D cut-cells, and needs to be simplified and rationalized. In this thesis, the first point is solved by using the diamond scheme tool, firstly studied in 2D for the heat equation then for the Navier-Stokes equations in Boussinesq approximation, and finally extended to 3D. Moreover, the diamond schemes have been used to fully revisit the discretisation of shear stresses from Navier-Stokes equations, where the case by case procedure is removed. These modifications have permitted to come up with a systematic discretisation that is accurate and algorithmically efficient for flows in totally 3D geometries. The numerical validation of the LS-STAG method with diamond schemes is presented for a series of test cases in 2D and 3D complex geometries. The precision is firstly assessed by comparison with analytical solutions in 2D, then in 3D by the simulation of Stokes flow between two concentric spheres. The robustess of the method is highlighted by the simulations of flows past a rotating sphere, in laminar modes (steady and unsteady), as well as in a weakly turbulent mode
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Soua, Mahmoud. "Extraction hybride et description structurelle de caractères pour une reconnaissance efficace de texte dans les documents hétérogènes scannés : Méthodes et Algorithmes parallèles". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1069/document.

Texto completo
Resumen
La Reconnaissance Optique de Caractères (OCR) est un processus qui convertit les images textuelles en documents textes éditables. De nos jours, ces systèmes sont largement utilisés dans les applications de dématérialisation tels que le tri de courriers, la gestion de factures, etc. Dans ce cadre, l'objectif de cette thèse est de proposer un système OCR qui assure un meilleur compromis entre le taux de reconnaissance et la vitesse de traitement ce qui permet de faire une dématérialisation de documents fiable et temps réel. Pour assurer sa reconnaissance, le texte est d'abord extrait à partir de l'arrière-plan. Ensuite, il est segmenté en caractères disjoints qui seront décrits ultérieurement en se basant sur leurs caractéristiques structurelles. Finalement, les caractères sont reconnus suite à la mise en correspondance de leurs descripteurs avec ceux d'une base prédéfinie. L'extraction du texte, reste difficile dans les documents hétérogènes scannés avec un arrière-plan complexe et bruité où le texte risque d'être confondu avec un fond texturé/varié en couleurs ou distordu à cause du bruit de la numérisation. D'autre part, la description des caractères, extraits et segmentés, se montre souvent complexe (calcul de transformations géométriques, utilisation d'un grand nombre de caractéristiques) ou peu discriminante si les caractéristiques des caractères choisies sont sensibles à la variation de l'échelle, de la fonte, de style, etc. Pour ceci, nous adaptons la binarisation au type de documents hétérogènes scannés. Nous assurons également une description hautement discriminante entre les caractères se basant sur l'étude de la structure des caractères selon leurs projections horizontale et verticale dans l'espace. Pour assurer un traitement temps réel, nous parallélisons les algorithmes développés sur la plateforme du processeur graphique (GPU). Nos principales contributions dans notre système OCR proposé sont comme suit :Une nouvelle méthode d'extraction de texte à partir des documents hétérogènes scannés incluant des régions de texte avec un fond complexe ou homogène. Dans cette méthode, un processus d'analyse d’image est employé suivi d’une classification des régions du document en régions d’images (texte avec un fond complexe) et de textes (texte avec un fond homogène). Pour les régions de texte on extrait l'information textuelle en utilisant une méthode de classification hybride basée sur l'algorithme Kmeans (CHK) que nous avons développé. Les régions d'images sont améliorées avec une Correction Gamma (CG) avant d'appliquer CHK. Les résultats obtenus d'expérimentations, montrent que notre méthode d'extraction de texte permet d'attendre un taux de reconnaissance de caractères de 98,5% sur des documents hétérogènes scannés.Un Descripteur de Caractère Unifié basé sur l'étude de la structure des caractères. Il emploie un nombre suffisant de caractéristiques issues de l'unification des descripteurs de la projection horizontale et verticale des caractères réalisantune discrimination plus efficace. L'avantage de ce descripteur est à la fois sa haute performance et sa simplicité en termes de calcul. Il supporte la reconnaissance des reconnaissance de caractère de 100% pour une fonte et une taille données.Une parallélisation du système de reconnaissance de caractères. Le processeur graphique GPU a été employé comme une plateforme de parallélisation. Flexible et puissante, cette architecture offre une solution efficace pour l'accélération des algorithmesde traitement intensif d'images. Notre mise en oeuvre, combine les stratégies de parallélisation à fins et gros grains pour accélérer les étapes de la chaine OCR. En outre, les coûts de communication CPU-GPU sont évités et une bonne gestion mémoire est assurée. L'efficacité de notre mise en oeuvre est validée par une expérimentation approfondie
The Optical Character Recognition (OCR) is a process that converts text images into editable text documents. Today, these systems are widely used in the dematerialization applications such as mail sorting, bill management, etc. In this context, the aim of this thesis is to propose an OCR system that provides a better compromise between recognition rate and processing speed which allows to give a reliable and a real time documents dematerialization. To ensure its recognition, the text is firstly extracted from the background. Then, it is segmented into disjoint characters that are described based on their structural characteristics. Finally, the characters are recognized when comparing their descriptors with a predefined ones.The text extraction, based on binarization methods remains difficult in heterogeneous and scanned documents with a complex and noisy background where the text may be confused with a textured background or because of the noise. On the other hand, the description of characters, and the extraction of segments, are often complex using calculation of geometricaltransformations, polygon, including a large number of characteristics or gives low discrimination if the characteristics of the selected type are sensitive to variation of scale, style, etc. For this, we adapt our algorithms to the type of heterogeneous and scanned documents. We also provide a high discriminatiobn between characters that descriptionis based on the study of the structure of the characters according to their horizontal and vertical projections. To ensure real-time processing, we parallelise algorithms developed on the graphics processor (GPU). Our main contributions in our proposed OCR system are as follows:A new binarisation method for heterogeneous and scanned documents including text regions with complex or homogeneous background. In this method, an image analysis process is used followed by a classification of the document areas into images (text with a complex background) and text (text with a homogeneous background). For text regions is performed text extraction using a hybrid method based on classification algorithm Kmeans (CHK) that we have developed for this aim. This method combines local and global approaches. It improves the quality of separation text/background, while minimizing the amount of distortion for text extraction from the scanned document and noisy because of the process of digitization. The image areas are improved with Gamma Correction (CG) before applying HBK. According to our experiment, our text extraction method gives 98% of character recognition rate on heterogeneous scanned documents.A Unified Character Descriptor based on the study of the character structure. It employs a sufficient number of characteristics resulting from the unification of the descriptors of the horizontal and vertical projection of the characters for efficient discrimination. The advantage of this descriptor is both on its high performance and its simple computation. It supports the recognition of alphanumeric and multiscale characters. The proposed descriptor provides a character recognition 100% for a given Face-type and Font-size.Parallelization of the proposed character recognition system. The GPU graphics processor has been used as a platform of parallelization. Flexible and powerful, this architecture provides an effective solution for accelerating intensive image processing algorithms. Our implementation, combines coarse/fine-grained parallelization strategies to speed up the steps of the OCR chain. In addition, the CPU-GPU communication overheads are avoided and a good memory management is assured. The effectiveness of our implementation is validated through extensive experiments
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Jedouaa, Meriem. "Une méthode efficace de capture d'interface pour la simulation de suspensions d'objets rigides et de vésicules immergées dans un fluide". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM042/document.

Texto completo
Resumen
Dans ce travail, nous nous sommes intéressés à la simulation numérique de suspensions denses d'objets immergés dans un fluide. En s'inspirant d'une méthode de segmentation d'image, nous avons développé une méthode efficace de capture d'interface permettant d'une part de localiser les structures immergées et d'autre part de gérer les contacts numériques entre les structures.Le domaine fluide/structure est représenté à l'aide de trois fonctions labels et deux fonctions distances qui permettent de localiser chaque structure et son plus proche voisin.Les interfaces sont capturées par une seule fonction level set, celle-ci est ensuite transportée par la vitesse du fluide ou par la vitesse de chaque structure. Un algorithme de multi-label fast marching permet de réinitialiser à chaque pas de temps les fonctions labels et distances dans un périmètre proche des interfaces.La gestion des contacts numériques est effectuée grâce à une force répulsive à courte portée prenant en compte l'interaction entre les objets les plus proches.Dans un premier temps, la méthode est appliquée à l'évolution de solides rigides immergés.Un modèle de pénalisation global couplé aux fonctions labels permet de calculer en une seule fois l'ensemble des vitesses des structures rigides. Les résultats obtenus montrent l'efficacité de la méthode à gérer un grand nombre de solides.Nous avons ensuite appliqué la méthode des suspensions de vésicules immergées. Ce type de simulation requiert le calcul des forces élastiques et de courbures exercées sur les membranes. Grâce au modèle proposé, seulement une force élastique et une force de courbure sont calculées pour l'ensemble des membranes à l'aide de la fonction level set et des fonctions labels
In this work, we propose a method to efficiently capture an arbitrary number of fluid/solid or fluid/fluid interfaces, in a level-set framework. This technique, borrowed from image analysis, is introduced in the context of the interaction of several bodies immersed in a fluid. A configuration of the bodies in the fluid/structure domain is described by three label maps providing the first and second neighbours, and their associated distance functions. Only one level set function captures the union of all interfaces and is transported with the fluid velocity or with a global velocity field which takes into account the velocity of each structure. A multi-label fast marching method is then performed in a narrow-band around the interfaces allowing to update the label and distance functions. Within this framework, the numerical treatment of contacts between the structures is achieved by a short-range repulsive force depending on the distance between the closest bodies.The method is validated through the simulation of a dense suspension of rigid bodies immersed in an incompressible fluid. A global penalization model uses the label maps to follow the solid bodies altogether without a separate computation of each body velocity. Consequently, the method shows its efficiency when dealing with a large number of rigid bodies. We also investigate the numerical simulation of vesicle suspensions for which a computation of elastic and bending forces on membranes is required. In the present model, only one elastic and bending force is computed for the whole set of membranes according to the level set function and the label maps
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Petit, Sophie. "Étude des méthodes de prédiction de taux d'erreurs en orbite dans les mémoires : nouvelle approche empirique". Toulouse, ENSAE, 2006. http://www.theses.fr/2006ESAE0015.

Texto completo
Resumen
Le phénomène de Single Event Upset (SEU) correspond au basculement logique d'un point mémoire suite au passage d'une particule énergétique. Les composants de type SRAM et DRAM, soumis à l'environnement spatial, sont sensibles aux SEU, il est alors primordial de prévoir leur sensibilité avant de les intégrer dans les missions spatiales. L'enjeu actuel est de concevoir un modèle de prédiction fiable utilisable pour tout type de mémoire, même fortement intégrée. La première phase de ce travail est une analyse des retours d'expériences embarquées qui a permis d'évaluer les modèles de prédiction standard, basés sur la modélisation IRPP, en comparant directement les taux d'erreurs en vol aux taux prédits, et démontrant leur incapacité à fournir des prédictions correctes. L'analyse des sources d'erreurs possibles a montré la difficulté d'améliorer les modèles standard, nous amenant alors à proposer une tout autre technique de prédiction. Ainsi, la méthode de prédiction empirique, basée sur la sensibilité mesurée des composants aux SEU, pour plusieurs angles d'incidence des particules, est présentée et mise en œuvre sur un ensemble de composants ; elle donne des résultats très encourageants. Une étude des événements multiples a été menée : elle montre que la diffusion des porteurs est à prendre en compte dans la modélisation des mécanismes de collection de charge mis en jeu. Enfin, des simulations numériques 3D couplées à des modèles analytiques simples permettent l'étude quantitative des mécanismes de collection dans une des structures ayant volé : ces outils ont confirmé le rôle majeur de la diffusion dans les SEU.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Sens, Nicolas. "Développement d'une méthode de type "velocity map imaging" pour la mesure de sections efficaces d’émission d'électrons par des molécules d'intérêt biologique en collision avec des ions". Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC213.

Texto completo
Resumen
Ces dernières décennies, l'étude des collisions entre des ions et des molécules d'intérêt biologique a reçu un intérêt croissant en raison des applications en radiobiologie. L'objet de cette thèse est le développement d'un dispositif expérimental en faisceaux croisés spécialement dédié à la mesure de sections efficaces absolues totales, simplement et doublement différentielles (en énergie et/ou en angle) d’émission d’électrons par des molécules d’intérêt biologique. Les électrons émis dans un angle solide de 4π stéradians, suite à la collision entre l’ion projectile et la molécule cible, sont extraits et analysés en énergie et en angle par un spectromètre de type Velocity Map Imaging (VMI). Les sections efficaces absolues d'émission d'électrons sont déduites de la mesure de la densité du faisceau cible, de l'intensité du faisceau projectile et du recouvrement géométrique des deux faisceaux à l'aide d'une microbalance à cristal de quartz et d'un profileur de faisceau d'ions. Dans ce manuscrit, la description du dispositif expérimental, la méthode de détermination des sections efficaces ainsi que la caractérisation complète du dispositif sont détaillées. Les premières valeurs de sections efficaces absolues d'émission d'électrons par des molécules d'adénine et d'uracile en collision avec des ions C4+ (11,76 MeV) et N4+ (60 keV) obtenues avec ce nouveau dispositif sont également présentées et interprétées. La bonne concordance entre ces valeurs et les données expérimentales et théoriques existantes confirme le bon fonctionnement du dispositif expérimental
In the last decades, ion collision with biologically relevant molecules has received increasing interest due to applications in radiation biology. The aim of this PhD is the development of a new crossed-beam experimental set-up dedicated to the measurement of absolute total, single and double differential (in angle and/or in energy) cross sections for electron emission from biologically relevant molecules. The electrons emitted in the 4π steradian solid angle after the collision between the projectile ion and the target molecule are extracted and analyzed by a Velocity Map Imaging (VMI) spectrometer. The cross sections are derived from measurements of the target beam density, the projectile beam intensity, and the beam overlap by means of a quartz crystal microbalance and an ion profiler. In this thesis, the experimental set-up description, the method used to determine the absolute cross sections and the complete characterization of the set-up are detailed. The first absolute cross sections for electron emission from adenine and uracil molecules upon collision with C4+ and N4+ ions measured with this new set-up are also shown and discussed. The good agreement between these results and previous experimental and theoretical data confirms the correct functionning of the experimental set-up
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Maneval, Daniel. "Conception d'un formalisme de pouvoir d'arrêt équivalent et accélération graphique : des simulations Monte Carlo plus efficaces en protonthérapie". Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34601.

Texto completo
Resumen
En radiothérapie, la planification de traitement correspond à l’optimisation de la balistique pour administrer la dose prescrite aux lésions à traiter, tout en minimisant les doses collatérales reçues par les tissus sains. L’algorithme de calcul de dose qui est au cœur de cette simulation numérique se doit d’être précis et efficace. L’antagonisme de ces deux compétences a abouti au développement d’algorithmes analytique rapides dont l’amélioration de la précision dosimétrique a, de nos jours, atteint sa limite. L’exactitude de l’algorithme de calcul de dose est particulièrement importante en protonthérapie pour exploiter pleinement le potentiel balistique des protons. La méthode Monte Carlo de transport de proton est la plus précise mais également la moins efficace. Cette thèse a pour sujet le développement d’une plateforme Monte Carlo de calcul de dose suffisamment efficace pour envisager son utilisation en routine clinique. L’objectif principal du projet est d’accélérer le transport Monte Carlo de protons sans compromettre la précision des dépôts de dose. Pour ce faire, deux voies de recherche ont été exploitées. La première a consisté à établir une nouvelle méthode de réduction de variance nommée formalisme du pouvoir d’arrêt restreint équivalent (formalisme Leq). Cette technique améliore significativement la complexité algorithmique temporelle rendue constante (O(1)) au lieu de linéaire (O(n)) des algorithmes Monte Carlo actuels. La seconde voie de recherche s’est attardée à l’utilisation des processeurs graphiques pour améliorer la vitesse d’exécution du transport Monte Carlo de protons. La plateforme développée, nommée pGPUMCD, réalise le transport des protons sur des processeurs graphiques au sein de géométries voxelisées. Dans pGPUMCD, les techniques d’interactions condensées et ponctuelles sont considérées. Les interactions inélastiques de faibles portées sont modélisées par la décélération continue du proton à l’aide du formalisme Leq, et les interactions élastiques par la diffusion coulombienne multiple. Les interactions ponctuelles modélisées sont les interactions inélastiques, les intéractions nucléaires élastiques et non-élastiques proton-noyaux. pGPUMCD est comparé à Geant4, et les procédés physiques implémentés sont validés les uns après les autres. Pour les cas cliniques de calcul de dose, 27 matériaux sont définis pour la segmentation des tissus du scanner tomodensitométrique. L’exactitude dosimétrique du formalisme Leq est meilleure que 0.31% pour divers milieux allant de l’eau à l’or. Les gains d’efficacité intrinsèque au formalisme Leq sont supérieurs à 30 : entre 100 et 630 à précisions dosimétriques similaires. Combiné à l’accélération du GPU, le gain d’efficacité est d’un ordre de grandeur supérieur à 10⁵. pGPUMCD concorde à Geant4 à moins de 1% jusqu’au pic de Bragg et à moins de 3% dans sa pénombre distale, pour différentes configurations de simulations allant des milieux homogènes jusqu’aux cas cliniques. De plus, 99.5% des points de dose passent le critère 1% et les portées de prescription concordent avec celles de Geant4 à moins 0.1%. Les temps de calcul de pGPUMCD sont inférieurs à 0.5 seconde par million de protons transportés contre plusieurs heures avec Geant4. Les performances dosimétriques et d’efficacité de pGPUMCD lui confèrent les bonnes caractéristiques pour être employé dans un environnement de planification dosimétrique clinique. L’apport médical attendu est un meilleur contrôle sur les doses administrées, ce qui permet une réduction significative des marges et des toxicités des traitements.
In radiotherapy, treatment planning is the optimization of the ballistics to administer the prescribed dose to the treated lesions while minimizing collateral doses received by the healthy tissue. The algorithm of the dose calculation is at the heart of this numerical simulation. It must be precise and computationally efficient. The antagonism of these two features has led to the development of rapid analytical algorithms whose improvement in dosimetric accuracy has nowadays reached its limit. The accuracy of the dose calculation algorithm is particularly important in proton therapy to fully exploit the ballistic potential of protons. The Monte Carlo proton transport method is the most accurate but also the least efficient. This thesis deals with the development of a Monte Carlo dose calculation platform that is sufficiently effective to consider its use in clinical routine. The main objective of the project is to accelerate the Monte Carlo proton transport without compromising the precision of the dose deposition. To do this, two lines of research have been exploited. The first was to establish a new variance reduction technique called the equivalent restricted stopping power formalism (formalism Leq). This technique significantly improves the algorithmic time complexity made constant (O(1)) instead of linear (O(n)) for the current Monte Carlo algorithms. The second line of research focused on the use of graphics processing units to improve the execution speed of the proton Monte Carlo transport. The developed platform, named pGPUMCD, transports protons on graphic processors in a voxelized geometry. In pGPUMCD, condensed and discrete interaction techniques are considered. The inelastic low-range interactions are modeled with a continuous proton slowing down using the Leq formalism and the energy straggling is considered. The elastic interactions are based on the multiple Coulomb scattering. The discrete interactions are the inelastic interactions, the nuclear elastic and the non-elastic proton-nuclei interactions. pGPUMCD is compared to Geant4 and the implemented physical processes are validated one after the other. For the dose calculation in a clinical context, 27 materials are defined for the tissue segmentation from the CT scan. The dosimetric accuracy of the Leq formalism is better than 0.31% for various materials ranging from water to gold. The intrinsic efficiency gain factors of the Leq formalism are greater than 30, between 100 to 630 for a similar dosimetric accuracy. Combined with the GPU acceleration, the efficiency gain is an order of magnitude greater than 10⁵. Dose differences between pGPUMCD and Geant4 are smaller than 1% in the Bragg peak region and below 3% in its distal fall-off for the different simulation configurations with homogeneous phantoms and clinical cases. In addition, 99.5% of the dose points pass the criterion 1% and the prescribing ranges match with those of Geant4 at less than 0.1%. The computing times of pGPUMCD are below 0.5 seconds per million of transported protons compared to several hours with Geant4. The dosimetric and efficiency performances of pGPUMCD make it a good candidate to be used in a clinical dosimetric planning environment. The expected medical benefit is a better control of the delivered doses allowing a significant margin and toxicity reductions of the treatments.
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Furstoss, Christophe. "Conception et développement d'un fantôme anthropomorphe équipé de détecteurs dans le but d'évaluer la dose efficace à un poste de travail : étude de faisabilité". Paris 11, 2006. http://www.theses.fr/2006PA112186.

Texto completo
Resumen
Les travaux de recherche menés durant cette thèse ont pour objet de déterminer la possibilité de concevoir et de développer un fantôme anthropomorphe équipé de détecteurs dans le but d'évaluer la dose efficace E en champs photoniques aux postes de travail. La démarche a consisté, dans un premier temps, à étudier les dépôts d'énergie dans les organes du fantôme à partir de calculs effectués avec le code de transport Monte Carlo MCNPX, afin de déterminer les positions de détection dans les différents organes. Puis, l'étude a porté sur l'importance de la contribution des organes à la dose efficace afin de diminuer le nombre de points de détection dans le fantôme. Enfin, les cahiers des charges des détecteurs et du fantôme ont été établis en s'appuyant sur les résultats des modélisations et sur l'étude bibliographique réalisée. Les résultats ont fait apparaître que 24 ou 23 positions de détection dans le fantôme, selon les valeurs du facteur de pondérationtissu wT (publication 60 ou nouvelles recommandations de la CIPR), permettaient d'estimer la dose efficace E à +15 % de 50 keV à 4 MeV. De plus, l'intérêt de disposer d'un fantôme instrumenté a été démontré en comparant l'estimation de E par l'équivalent de dose individuel Hp et par le fantôme instrumenté lors d'irradiations avec des sources ponctuelles (travailleur devant une boîte à gants par exemple). Enfin, deux types de dosimètres et un type de fantôme anthropomorphe ont été sélectionnés à partir des cahiers de charge. Toutefois, au niveau des détecteurs principalement, des développements seront nécessaires. A la suite de cette étude, il serait donc intéressant de caractériser et d'adapter les détecteurs sélectionnés. L'étude pourrait également être poursuivie en étendant les applications du fantôme instrumenté à l'évaluation de E en champ mixte photons-neutrons.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Boffy, Hugo. "Techniques multigrilles et raffinement pour un modèle 3D efficace de milieux hétérogènes sous sollicitations de contact". Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00823694.

Texto completo
Resumen
Les problèmes de mécanique du contact sont des problèmes multi-échelles mettant en jeux de nombreux phénomènes physiques. Les premières études concernant ce domaine datent de la fin du XIXème siècle et les développements majeurs ont été réalisés au cours du XXème siècle en parallèle du besoin croissant des ingénieurs de prévoir le comportement des matériaux sous sollicitations tribologiques. L'évolution des besoins industriels et les avancées technologiques réalisées dans le domaine du numérique conduisent à réaliser des simulations tridimensionnelles ayant pour objectif la prédiction du comportement de pièces sous sollicitations thermo-mécaniques transitoires, pour, soit alléger les structures, augmenter le niveau de sollicitations, étendre la durée de vie... Ces simulations se révèlent très souvent coûteuses en termes de temps de calcul et d'espace mémoire et nécessitent par conséquent l'utilisation de super calculateurs. Dans ce contexte, cette thèse propose un modèle innovant basé sur les techniques multigrilles avec raffinement local afin de réaliser ces simulations pour des coûts numériques faibles. Ce modèle est basé sur les équations de Lamé généralisées et l'équation de la chaleur de Fourier discrétisée à l'aide des différences finies. Le système linéaire obtenu est résolu à l'aide de la méthode itérative de Gauss-Seidel couplée avec les techniques multigrilles. Ces techniques permettent d'accélérer la convergence d'un problème en utilisant plusieurs grilles et des opérateurs de transfert. Afin de garantir une convergence optimale et de minimiser la taille mémoire dans le cas de variations de propriétés importantes, des techniques numériques de localisation et d'optimisation ont été mises en place. Les applications visées ici sont centrées sur l'utilisation de revêtements ou de matériaux innovants pour permettre les gains attendus. Des validations du modèle ont été effectuées en comparant nos résultats avec ceux issus de la littérature. Des études paramétriques ont permis d'étudier l'influence de l'épaisseur du revêtement, de la valeur du module de Young mais aussi d'une couche à gradient de propriété sur le champ de contrainte et la tenue du système revêtement/substrat sous sollicitation de contact. Des études similaires ont été conduites sous sollicitations thermiques. L'intérêt porté aux variations de propriétés des matériaux selon toutes les directions de l'espace a conduit à étudier l'effet de la microstructure, qui est constituée de grains ayant chacun leurs propriétés propres, sur les champs de contraintes. La mise en évidence de cet effet est explicitement montrée au travers de calculs de durée de vie utilisant des descriptions statistiques de type Weibull. La dispersion observée sur les résultats est conforme aux observations expérimentales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Leleu, Samuel. "Vers une nouvelle méthode efficace et respectueuse de l'environnement pour la protection contre la corrosion des alliages de magnésium pour l'industrie aéronautique". Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/20134/1/Leleu_Samuel-20134.pdf.

Texto completo
Resumen
Les alliages de magnésium représentent une alternative à l’utilisation d’alliages d’aluminium ou de matériaux composites, en particulier dans le secteur aéronautique dans l’objectif de réduire la masse des structures. Ces travaux de thèse ont pour but de participer au développement de nouvelles méthodes de protection des alliages de magnésium, plus efficaces et respectueuses de l’environnement. Pour mener à bien ces travaux, des techniques électrochimiques, en particulier la spectroscopie d’impédance électrochimique, ont été couplées à des mesures par microscopie à force atomique (AFM), à des analyses par spectroscopie d’émission atomique à plasma induit (ICP-AES) et par spectroscopie de masse d’ions secondaires à temps de vol (Tof-SIMS) ainsi que des essais normalisés industriels. Tout d’abord, la résistance à la corrosion en milieu Na2SO4 de trois alliages de magnésium contenant des terres rares (WE43, EV31 et ZE41) a été étudiée et comparée à celle de deux alliages riches en aluminium (AZ31 et AZ91) et à celle du magnésium pur. Pour tous les alliages, il a été montré que les particules intermétalliques agissent comme des cathodes locales. Cet effet de couplage galvanique est plus marqué pour les particules riches en terres rares, en particulier dans le cas de l’alliage EV31. Conjointement, la corrosion est contrôlée par la dissolution de la matrice riche en magnésium et par le recouvrement progressif de la surface métallique par un film d’oxydes/hydroxydes. Ce film est plus protecteur pour les alliages que pour le magnésium pur mais cet effet bénéfique n’est toutefois pas suffisant pour compenser le rôle néfaste joué par les particules intermétalliques. Au final, l’ajout de terres rares augmente la vitesse de corrosion des alliages de magnésium en milieu Na2SO4 par rapport à celle des alliages AZ ou celle du magnésium pur. Dans le cas de l’alliage WE43, qui a été retenu pour la suite de l’étude, il a été montré que le film protecteur d’oxydes est plus mince et plus stable que celui formé sur le Mg pur, en particulier en présence d’ions chlorure. Ces résultats ont été expliqués par l’incorporation des éléments d’alliages, comme l’yttrium, qui serait responsable de la formation d’un film d’oxydes plus compact. Puis, plusieurs méthodes de protection ont été envisagées dans le but d’obtenir une résistance à la corrosion compatible avec les exigences de l’industrie aéronautique. Un traitement d’anodisation, développé par la société Prodem et appelé CEP, en combinaison avec plusieurs primaires de peinture sans chromate, proposés par la société Mapaéro (hydrodiluable ou haut-extrait sec) ont été évalués et comparés aux solutions de référence chromatées. Il a été montré que les traitements de conversion actuels, même en présence de primaire chromaté, ne permettent pas une protection efficace des alliages de magnésium. Le traitement CEP, de par sa structure poreuse, permet une bonne adhésion avec les primaires. Les meilleures performances ont été obtenues pour le traitement CEP revêtu par le primaire haut-extrait sec. Des analyses supplémentaires ont montré que l’ajout d’un vernis permettait d’obtenir un système de protection prometteur pour le remplacement des systèmes de référence sur la base des exigences clés aéronautiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía