To see the other types of publications on this topic, follow the link: Analyse de grands systèmes.

Dissertations / Theses on the topic 'Analyse de grands systèmes'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse de grands systèmes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mallem, Badis. "Modélisation, analyse et commande des grands systèmes électriques interconnectés." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00557829.

Full text
Abstract:
Cette thèse porte sur la modélisation, la réduction et la commande des grands systèmes électriques.En terme de modélisation et de réduction, l'objectif principal est de développer une méthode de réduction des modèles dynamiques des systèmes électriques. Cette réduction a pour objet de répondre à une situation particulière dans laquelle toutes les données du système à réduire ne sont pas connues.En terme de commande, l'objectif est la conception de commandes robustes coordonnées pour répondre aux nouvelles contraintes des grands systèmes électriques. Ces approches doivent respecter trois niveaux de coordination et deux nouvelles contraintes. Les trois niveaux de coordination concernent la prise en compte simultanée des oscillations électromécaniques interzones et locaux, la coordination de la synthèse de régulateurs pour plusieurs alternateurs, et la coordination du réglage des paramètres (gains et constantes de temps) des régulateurs de tension (les boucles stabilisatrices PSS) avec le réglage des paramètres des régulateurs de turbine des alternateurs. Les contraintes sont liées à la stabilité et la robustesse des régulateurs proposés.
APA, Harvard, Vancouver, ISO, and other styles
2

Lamarche-Perrin, Robin. "Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00933186.

Full text
Abstract:
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
APA, Harvard, Vancouver, ISO, and other styles
3

Cuerrier, Alain. "Analyse quantitative et qualitative des grands systèmes de classification des plantes à fleurs." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp02/NQ32607.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Emeras, Joseph. "Analyse et rejeu de traces de charge dans les grands systèmes de calcul distribués." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00940055.

Full text
Abstract:
High Performance Computing is preparing the era of the transition from Petascale to Exascale. Distributed computing systems are already facing new scalability problems due to the increasing number of computing resources to manage. It is now necessary to study in depth these systems and comprehend their behaviors, strengths and weaknesses to better build the next generation. The complexity of managing users applications on the resources conducted to the analysis of the workload the platform has to support, this to provide them an efficient service. The need for workload comprehension has led to the collection of traces from production systems and to the proposal of a standard workload format. These contributions enabled the study of numerous of these traces. This also led to the construction of several models, based on the statistical analysis of the different workloads from the collection. Until recently, existing workload traces did not enabled researchers to study the consumption of resources by the jobs in a temporal way. This is now changing with the need for characterization of jobs consumption patterns. In the first part of this thesis we propose a study of existing workload traces. Then we contribute with an observation of cluster workloads with the consideration of the jobs resource consumptions over time. This highlights specific and unattended patterns in the usage of resources from users. Finally, we propose an extension of the former standard workload format that enables to add such temporal consumptions without loosing the benefit of the existing works. Experimental approaches based on workload models have also served the goal of distributed systems evaluation. Existing models describe the average behavior of observed systems. However, although the study of average behaviors is essential for the understanding of distributed systems, the study of critical cases and particular scenarios is also necessary. This study would give a more complete view and under- standing of the performance of resource and job management. In the second part of this thesis we propose an experimental method for performance evaluation of distributed systems based on the replay of production workload trace extracts. These extracts, replaced in their original context, enable to experiment the change of configuration of the system in an online workload and observe the different configurations results. Our technical contribution in this experimental approach is twofold. We propose a first tool to construct the environment in which the experi- mentation will take place, then we propose a second set of tools that automatize the experiment setup and that replay the trace extract within its original context. Finally, these contributions conducted together, enable to gain a better knowledge of HPC platforms. As future works, the approach proposed in this thesis will serve as a basis to further study larger infrastructures.
APA, Harvard, Vancouver, ISO, and other styles
5

Declerck, Philippe. "Analyse structurale et fonctionnelle des grands systèmes : applications à une centrale PWR 900 MW." Lille 1, 1991. http://www.theses.fr/1991LIL10153.

Full text
Abstract:
La conception des systèmes de surveillance est difficile pour les grands systèmes car leur complexité est souvent le résultat d'une structure qui interconnecte un grand nombre d'objets industriels. Ainsi, nous avons effectué l'analyse structurale du système et développé une procédure d'inclusion qui englobe le système initial dans une sur-structure particulière. Ses caractéristiques permettent la génération de nombreux résultats structuraux. Des manipulations simples donnent la décomposition canonique du graphe et les parties surveillables du processus. Cette complexité rend aussi délicate les tâches de supervision et fait ressentir les besoins d'une assistance aux personnels humains. Après étude de la méthode Flow-model, nous avons développer les concepts de la méthode SADT (Structured Analysis and Design Technic) à travers une nouvelle lecture des diagrammes. De même, nous avons proposer un modèle dérivé pour l'analyse fonctionnelle des processus physiques et de contrôle commande
APA, Harvard, Vancouver, ISO, and other styles
6

Troubnikoff, Alexis. "Résolution numérique pour l'analyse quantitative de grands systèmes à événements discrets." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS016V.

Full text
Abstract:
Cette thèse traite de la résolution de modèles markoviens pour l'évaluation des performances de systèmes complexes. L'approche adoptée est l'étude des propriétés structurelles de la chaîne de Markov. Dans une première partie, nous nous plaçons dans le cas général des chaînes de Markov qui n'ont pas, à priori, de structure particulière. En utilisant la méthode de réduction pour la résolution de la distribution stationnaire et des techniques de la théorie des graphes, nous recherchons une structure particulère dans la chîne permettant la diminution du temps de calcul. Cette structure particulière dans la chîne permettant la diminution du temps de calcul. Cette structure particulière revient à chercher un FVS (Feedback Vertex Set) de taille minimum (problème NP-dur) sur le graphe associé à la chaîne de Markov. Une généralisation de ces techniques est proposée. Elle utilise des permutations sur la matrice associée ou des échanges successifs de prédécesseurs ou des successeurs entre sommets du graphe. Dans une deuxième partie, nous abordons deux structures de chaînes de Markov particulières pour lesquelles nous proposons des méthodes de résolution directes adaptées à ces structures. Les chaînes de Markov étudiées sont des QBD (Quasi Birth and Death process). La première structure particulière est issue d'un modèle de réseau UMTS où le QBD a un espace d'états fini. Nous montrons qu'un algorithme simple, utilisant les techniques proposées dans la première partie, permet de calculer efficacement différents indices de performances (taux de perte,. . . ) La seconde structure particulière que nous étudions correspond aux QBD à un espace d'états infini ayant des propriétés particulières, notés LG (Level Geometric). Nous définissons et caractérisons cette propriété. Nous montrons qu'n utilisant cette propriété, il est possible de calculer la distribution stationnaire plus simplement.
APA, Harvard, Vancouver, ISO, and other styles
7

Taïani, François. "Programmation des grands systèmes distribués: quelques mécanismes, abstractions, et outils." Habilitation à diriger des recherches, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00643729.

Full text
Abstract:
À l'interface entre informatique distribuée et en génie logiciel, nous présentons trois contributions liées aux problématiques de réutilisation du logiciel dans trois cas représentatifs de systèmes distribués grande échelle: les réseaux logiques pair-à-pair, les protocoles épidémiques, et les intergiciels de grille. Les travaux que nous présentons portent sur trois problématiques différentes mais néanmoins liées de ces systèmes: la tolérance aux pannes modulaire (dans les réseaux pair-à-pair), la programmabilité des systèmes à composants (dans les protocoles épidémiques), et l'analyse interactive de performances (dans les intergiciels de grille). Le message qui se dégage de nos travaux est double. Nos contributions démontrent tout d'abord en termes concrets l'intérêt d'abstractions logicielles réutilisables pour les systèmes distribués grande échelle. Nos travaux illustrent par ailleurs la tension inhérente entre réutilisation et complexité logicielle dans les plates-formes distribuées modernes. Notre travail sur les protocoles épidémiques montre par exemple comment une approche de développement par composants peut être combinée à un langage métier dédié pour une plus grande programmabilité. De même notre analyse d'un intergiciel de grille (Globus) illustre clairement les difficultés introduites par la réutilisation logicielle dans les plates-formes distribuées d'aujourd'hui, et comment ces difficultés peuvent être abordées dans le cas du diagnostic en combinant des principes de rétro-conception architecturale avec une analyse dynamique de performances.
APA, Harvard, Vancouver, ISO, and other styles
8

Fippo, Fitime Louis. "Modélisation hybride, analyse et vérification quantitative des grands réseaux de régulation biologique." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0016.

Full text
Abstract:
Les Réseaux de Régulation biologique (RRB) sont couramment utilisés en biologie des systèmes pour modéliser, comprendre et contrôler les dynamiques des différentes fonctions biologiques (différenciation, synthèse protéique, apoptose) au sein des cellules. Ces réseaux sont enrichis des données expérimentales de plus en plus nombreuses et disponibles qui renseignent sur les dynamiques des composants des RRB. L’analyse formelle de tels modèles se heurte rapidement à l’explosion combinatoire des comportements engendrés malgré le fait que les RRB offrent une représentation abstraite des systèmes biologiques. Cette thèse traite de la modélisation hybride, de la simulation, de la vérification formelle et du contrôle des grands Réseaux de Régulation Biologique. Cette modélisation est effectuée grâce aux réseaux d’automates stochastiques, puis aux Frappes de Processus qui en sont une restriction, en intégrant des données de séries temporelles. En premier lieu, cette thèse propose un raffinement des dynamiques par l’estimation des paramètres stochastiques et temporels (délais) à partir des données de séries temporelles et l’intégration de ces paramètres dans les modèles en réseaux d’automates. Cette intégration permet de paramétrer les transitions entre les états du système. Puis, une analyse statistique des traces des simulations stochastiques est proposée afin de comparer les dynamiques des simulations à celles des données expérimentales. En deuxième lieu, cette thèse développe une analyse statique par interprétation abstraite dans les réseaux d’automates permettant des approximations inférieures et supérieures très efficaces des propriétés d’accessibilité d’un point de vue quantitatif (probabilité et délai). Cette analyse permet de faire apparaître des composants critiques pour la satisfaction de ces propriétés. Enfin, tirant avantage des analyses statiques développées pour l’accessibilité dans les réseaux d’automates, et de la puissance de la programmation logique (ASP), cette thèse aborde le domaine du contrôle des systèmes en proposant l’identification des transitions de bifurcation. Les bifurcations sont des transitions après lesquelles le système ne peut plus atteindre un état précédemment accessible
Biological Regulatory Networks (BRNs) are usually used in systems biology for modelling, understanding and controlling the dynamics of different biological functions (differentiation, proliferation, proteins synthesis, apoptose) inside cells. Those networks are enhanced with experimental data that are nowadays more available which give an idea on the dynamics of BRNs components. Formal analysis of such models fails in front of the combinatorial explosion of generated behaviours despite the fact that BRNs provide abstract representation of biological systems. This thesis handles hybrid modelling, the simulation, the formal verification and control of Large Biological Regulatory Networks. This modelling is done thanks to stochastic automata networks, thereafter to Process Hitting by integrating time-series data. Firstly, this thesis proposes a refining of the dynamics by estimation of stochastic and temporal (delay) parameters from time-series data and integration of those parameters in automata networks models. This integration allows the parametrisation of the transitions between the states of the system. Then, a statistical analysis of the traces of the stochastic simulation is proposed to compare the dynamics of simulations with the experimental data. Secondly, this thesis develops static analysis by abstract interpretation in the automata networks allowing efficient under- and over-approximation of quantitative (probability and delay) reachability properties. This analysis enables to highlight the critical components to satisfy these properties. Finally, taking advantage from the previous developed static analyses for the reachability properties in the qualitative point of view, and from the power of logic programming (Answer Set Programming), this thesis addresses the domain of control of system by proposing the identification of bifurcation transitions. Bifurcations are transitions after which the system can no longer reach a state that was previously reachable
APA, Harvard, Vancouver, ISO, and other styles
9

Laib, Khaled. "Analyse hiérarchisée de la robustesse des systèmes incertains de grande dimension." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC027/document.

Full text
Abstract:
Ces travaux de thèse concernent l'analyse de la robustesse (stabilité et performance) de systèmes linéaires incertains de grande dimension avec une structure hiérarchique. Ces systèmes sont obtenus en interconnectant plusieurs sous-systèmes incertains à travers une topologie hiérarchique. L'analyse de la robustesse de ces systèmes est un problème à deux aspects : la robustesse et la grande dimension. La résolution efficace de ce problème en utilisant les approches usuelles est difficile, voire impossible, à cause de la complexité et de la grande taille du problème d'optimisation associé. La conséquence de cette complexité est une augmentation importante du temps de calcul nécessaire pour résoudre ce problème d'optimisation. Afin de réduire ce temps de calcul, les travaux existants ne considèrent que des classes particulières de systèmes linéaires incertains de grande dimension. De plus, la structure hiérarchique de ces systèmes n'est pas prise en compte, ce qui montre, de notre point de vue, les limitations de ces résultats. Notre objectif est d'exploiter la structure hiérarchique de ces systèmes afin de ramener la résolution du problème d'analyse de grande taille à la résolution d'un ensemble de problèmes d'analyse de faible taille, ce qui aura comme conséquence une diminution du temps de calcul. De plus, un autre avantage de cette approche est la possibilité de résoudre ces problèmes en même temps en utilisant le calcul parallèle. Afin de prendre en compte la structure hiérarchique du système incertain de grande dimension, nous modélisons ce dernier comme l'interconnexion de plusieurs sous-systèmes incertains qui sont eux-mêmes l'interconnexion d'autres sous-systèmes incertains, etc.. Cette technique récursive de modélisation est faite sur plusieurs niveaux hiérarchiques. Afin de réduire la complexité de la représentation des systèmes incertains, nous construisons une base de propriétés de dissipativité pour chaque sous-système incertain de chaque niveau hiérarchique. Cette base contient plusieurs éléments qui caractérisent des informations utiles sur le comportement de systèmes incertains. Des exemples de telles caractérisations sont : la caractérisation de la phase incertaine, la caractérisation du gain incertain, etc.. L'obtention de chaque élément est relaxée comme un problème d'optimisation convexe ou quasi-convexe sous contraintes LMI. L'analyse de la robustesse de systèmes incertains de grande dimension est ensuite faite de façon hiérarchique en propageant ces bases de propriétés de dissipativité d'un niveau hiérarchique à un autre. Nous proposons deux algorithmes d'analyse hiérarchique qui permettent de réduire le temps de calcul nécessaire pour analyser la robustesse de ces systèmes. Un avantage important de notre approche est la possibilité d'exécuter des parties de ces algorithmes de façon parallèle à chaque niveau hiérarchique ce qui diminuera de façon importante ce temps de calcul. Pour finir et dans le même contexte de système de grande dimension, nous nous intéressons à l'analyse de la performance dans les réseaux électriques et plus particulièrement «l'analyse du flux de puissances incertaines dans les réseaux électriques de distribution». Les sources d'énergies renouvelables comme les éoliennes et les panneaux solaires sont influencées par plusieurs facteurs : le vent, l'ensoleillement, etc.. Les puissances générées par ces sources sont alors intermittentes, variables et difficiles à prévoir. L'intégration de telles sources de puissance dans les réseaux électriques influencera les performances en introduisant des incertitudes sur les différentes tensions du réseau. L'analyse de l'impact des incertitudes de puissances sur les tensions est appelée «analyse du flux de puissances incertaines». La détermination de bornes sur les modules des différentes tensions est formulée comme un problème d'optimisation convexe sous contraintes LMI
This PhD thesis concerns robustness analysis (stability and performance) of uncertain large scale systems with hierarchical structure. These systems are obtained by interconnecting several uncertain sub-systems through a hierarchical topology. Robustness analysis of these systems is a two aspect problem: robustness and large scale. The efficient resolution of this problem using usual approaches is difficult, even impossible, due to the high complexity and the large size of the associated optimization problem. The consequence of this complexity is an important increase of the computation time required to solve this optimization problem. In order to reduce this computation time, the existing results in the literature focus on particular classes of uncertain linear large scale systems. Furthermore, the hierarchical structure of the large scale system is not taken into account, which means, from our point of view, that these results have several limitations on different levels. Our objective is to exploit the hierarchical structure to obtain a set of small scale size optimization problems instead of one large scale optimization problem which will result in an important decrease in the computation time. Furthermore, another advantage of this approach is the possibility of solving these small scale optimization problems in the same time using parallel computing. In order to take into account the hierarchical structure, we model the uncertain large scale system as the interconnection of uncertain sub-systems which themselves are the interconnection of other uncertain sub-systems, etc.. This recursive modelling is performed at several hierarchical levels. In order to reduce the representation complexity of uncertain systems, we construct a basis of dissipativity properties for each uncertain sub-system at each hierarchical level. This basis contains several elements which characterize different useful information about uncertain system behaviour. Examples of such characterizations are: uncertain phase characterization, uncertain gain characterization, etc.. Obtaining each of these elements is relaxed as convex or quasi-convex optimization problem under LMI constraints. Robustness analysis of uncertain large scale systems is then performed in a hierarchical way by propagating these dissipativity property bases from one hierarchical level to another. We propose two hierarchical analysis algorithms which allow to reduce the computation time required to perform the robustness analysis of the large scale systems. Another key point of these algorithms is the possibility to be performed in parallel at each hierarchical level. The advantage of performing robustness analysis in parallel is an important decrease of the required computation time. Finally and within the same context of robustness analysis of uncertain large scale systems, we are interested in robustness analysis of power networks and more precisely in "the uncertain power flow analysis in distribution networks". The renewable energy resources such as solar panels and wind turbines are influenced by many factors: wind, solar irradiance, etc.. Therefore, the power generated by these resources is intermittent, variable and difficult to predict. The integration of such resources in power networks will influence the network performances by introducing uncertainties on the different network voltages. The analysis of the impact of power uncertainties on the voltages is called "uncertain power flow analysis". Obtaining the boundaries for the different modulus of these voltages is formulated as a convex optimization problem under LMI constraints
APA, Harvard, Vancouver, ISO, and other styles
10

Pappa, Anna. "START, analyse syntaxique automatique de surface sur grand corpus en français." Paris 8, 2003. http://www.theses.fr/2003PA082313.

Full text
Abstract:
Notre étude présente la conception et la réalisation d'un système d'analyse syntaxique de surface dans un grand corpus non annoté en français. Le système START (System of Textual Analysis Recognition and Tagging) effectue les tâches suivantes : détermination des frontières des constituants d'une phrase, extraction des groupes syntaxiques (groupes nominaux, verbaux, prépositionnels, etc. ), étiquetage partiel des mots qui composent des constituants détectés, désambigui͏̈sation des cas ambigus, création d'un dictionnaire à partir des mots qui composent les constituants. Le système n'utilise aucun dictionnaire et il utilise un minimum de règles grammaticales et syntaxiques. Il est basé sur des statistiques issues de l'analyse distributionnelle des mots grammaticaux. Le processus est novateur car il n'utilise pas de corpus étiqueté et aucune connaissance préalable. Les résultats dépassent 92% de reconnaissance pour les GV et des GN et 99,6% pour la désambigui͏̈sation, avec un taux d'erreur inférieur à 1%
Our research study presents a rule-based system of shallow parsing : START (System of Textual Analysis Recognition and Tagging) extracts form constituents such as noun and verb phrases from unrestricted untagged french corpora and proceeds in a partially grammatical tagging. The method is based on the distributional analysis of the grammatical words (such as articles, pronouns, negation) which are used as "noyau" for the rules. The rules are based on statistics about grammatical words' distribution in large corpora. The system produces the following : recognition of phrases (disambiguation of punctuation), recognition and extraction of nominal and verbal groups, tagging partially terms of the extracted constituents, disambiguation of french definite article / personal pronoun ambiguity, creation of a dictionary with tagged words in flexional form. Tested accuracy exceeds 92% of precision for NP and VP. The low error rate less than 1% gives us the possibility to automatically annotate corpora
APA, Harvard, Vancouver, ISO, and other styles
11

Delefosse, Thierry. "Stratégies de recherche d'Informations émergentes pour la compréhension de grands volumes documentaires numérisées : application à la sécurité des systèmes d'information." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Zhang, Ye. "Méthodes itératives hybrides asynchrones sur plateformes de calcul hétérogènes pour la résolution accélérée de grands systèmes linéaires." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10129/document.

Full text
Abstract:
Nous étudions dans cette thèse une méthode hybride de résolution des systèmes linéaires GMRES/LS-Arnoldi qui accélère la convergence grâce à la connaissance des valeurs propres calculées parallèlement par la méthode d’Arnoldi dans les cas réels. Le caractère asynchrone de cette méthode présente l’avantage de fonctionner avec une architecture hétérogène. Une étude de cas complexe est également faite en effectuant la transformation de la matrice complexe en une matrice réelle de dimension double. Nous avons mis en oeuvre la méthode GMRES hybride ainsi que la méthode GMRES générale sur trois différents types de plates-formes matérielles. Il s’agit respectivement de supercalculateurs IBM série SP, plates-formes matérielles typiquement centralisées; de Grid5000, une plate-forme matérielle typiquement distribuée, et de Tsubame (Tokyo-tech Supercomputer and Ubiquitously Accessible Massstorage Environment) supercalculateur, dont certains noeuds sont munis d’une carte accélératrice. Nous avons testé les performances de GMRES général et de GMRES hybride sur ces trois plates-formes, en observant l’influence des nombreux paramètres sur les performances. Des résultats significatifs ont ainsi été obtenus, nous permettant non seulement d'améliorer les performances du calcul parallèle, mais aussi de préciser le sens de nos efforts futurs
In this thesis, we have studied an effective parallel hybrid method of solving linear systems, GMRES / LS-Arnoldi, which accelerates the convergence through knowledge of some eigenvalues calculated in paralled by the Arnoldi method in real cases. The asynchronous nature of this method has the advantage of working with a heterogeneous architecture. A study in complex cases is also done by transforming the complex matrix into a real matrix of double dimension. We have implemented our hybrid GMRES method and the general GMRES method on three different types of hardware platforms. They are respectively the IBM SP series supercomputer, a typically centralized hardware platform; Grid5000, a fully distributed hardware platform, and the Tsubame (Tokyo-tech Supercomputer and Ubiquitously Accessible Massstorage Environment) supercomputer, where some nodes are equipped with an accelerator card. We have tested the performance of general GMRES and hybrid GMRES on these three platforms, observing the influence of various parameters for the performance. A number of meaningful results have been obtained; we can not only improve the performance of parallel computing but also specify the direction of our future efforts
APA, Harvard, Vancouver, ISO, and other styles
13

Kluth, Gilles. "Analyse mathématique et numérique de systèmes hyperélastiques et introduction de la plasticité." Paris 6, 2008. http://www.theses.fr/2008PA066459.

Full text
Abstract:
L'objectif de cette thèse est la modélisation et la simulation numérique des phénomènes dynamiques solides en plasticité finie. On propose un modèle dit hyperélasto-plastique basé sur le système de lois de conservation de l'hyperélasticité et l'utilisation d'une équation d'état construite de manière à satisfaire le critère de plasticité de Von Mises. Ce modèle nous permet d'exhiber des solutions exactes de type dédoublement de chocs pour les expériences d'impact de plaques. Dans la partie numérique, on présente des schémas numériques lagrangiens de type Volumes Finis 1D plan et 2D satisfaisant un critère d'entropie. Grâce à une discrétisation particulière des équations cinématiques, on vérifie des contraintes involutives discrètes. Tout au long de cette thèse, la dégénérescence du modèle solide sur les modèles hydrodynamiques est étudiée au niveau continu et obtenue numériquement. Sur divers cas tests, le modèle et les schémas numériques sont validés.
APA, Harvard, Vancouver, ISO, and other styles
14

Belghache, Elhadi. "AMAS4BigData : analyse dynamique de grandes masses de données par systèmes multi-agents adaptatifs." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30149.

Full text
Abstract:
L'ère des grandes masses de données (big data) nous a mis face à de nouvelles problématiques de gestion et de traitement des données. Les outils conventionnels actuels d'analyse sont maintenant proches de répondre aux problématiques actuelles et de fournir des résultats satisfaisants avec un coût raisonnable. Mais la vitesse à laquelle les nouvelles données sont générées et la nécessité de gérer les modifications de ces données à la fois dans le contenu et la structure conduisent à de nouvelles problématiques émergentes. La théorie des AMAS (Adaptive Multi-Agent Systems) propose de résoudre par autoorganisation des problèmes complexes pour lesquels aucune solution algorithmique n'est connue. Le comportement coopératif des agents permet au système de s'adapter à un environnement dynamique pour maintenir le système dans un état de fonctionnement adéquat. Les systèmes ambiants présentent un exemple typique de système complexe nécessitant ce genre d'approche, et ont donc été choisis comme domaine d'application pour notre travail. Cette thèse vise à explorer et décrire comment la théorie des Systèmes Multi-Agents Adaptatifs peut être appliquée aux grandes masses de données en fournissant des capacités d'analyse dynamique, en utilisant un nouvel outil analytique qui mesure en temps réel la similarité des évolutions des données. Cette recherche présente des résultats prometteurs et est actuellement appliquée dans l'opération neOCampus, le campus ambiant de l'Université Toulouse III
Understanding data is the main purpose of data science and how to achieve it is one of the challenges of data science, especially when dealing with big data. The big data era brought us new data processing and data management challenges to face. Existing state-of-the-art analytics tools come now close to handle ongoing challenges and provide satisfactory results with reasonable cost. But the speed at which new data is generated and the need to manage changes in data both for content and structure lead to new rising challenges. This is especially true in the context of complex systems with strong dynamics, as in for instance large scale ambient systems. One existing technology that has been shown as particularly relevant for modeling, simulating and solving problems in complex systems are Multi-Agent Systems. The AMAS (Adaptive Multi-Agent Systems) theory proposes to solve complex problems for which there is no known algorithmic solution by self-organization. The cooperative behavior of the agents enables the system to self-adapt to a dynamical environment so as to maintain the system in a functionality adequate state. In this thesis, we apply this theory to Big Data Analytics. In order to find meaning and relevant information drowned in the data flood, while overcoming big data challenges, a novel analytic tool is needed, able to continuously find relations between data, evaluate them and detect their changes and evolution over time. The aim of this thesis is to present the AMAS4BigData analytics framework based on the Adaptive Multi-agent systems technology, which uses a new data similarity metric, the Dynamics Correlation, for dynamic data relations discovery and dynamic display. This framework is currently being applied in the neOCampus operation, the ambient campus of the University Toulouse III - Paul Sabatier
APA, Harvard, Vancouver, ISO, and other styles
15

Belhocine, Mohamed. "Modélisation et analyse structurelle du fonctionnement dynamique des systèmes électriques." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN047/document.

Full text
Abstract:
Cette thèse traite des problématiques relatives à la modélisation, l’analyse et la simulation des systèmes électriques interconnectés. Elle a été principalement motivée par le besoin de comprendre et de clarifier les niveaux de modélisation de certains composants électriques comme les lignes de transmission ainsi que leur habilité à reproduire les différents phénomènes qui présentent un intérêt dans le système. En effet, pour faciliter les études et les simulations, les modèles les plus détaillés et les plus complexes sont généralement remplacés par des modèles plus simples selon le type des phénomènes visés. Usuellement, la structure dynamique de l’ensemble du système n’est pas prise en compte dans l’étape de simplification, ce qui fait que, dans la plupart du temps, des validations expérimentales sont nécessaires. C’est pourquoi un cadre structurel et une vision systémique sont proposés dans cette thèse afin d’apporter des solutions plus générales et plus fiables qui s’adaptent mieux à l’approximation des systèmes électriques. Le cadre proposé il nous a permis : d’une part, d’expliquer par le biais de la réduction l’approximation du modèle à paramètres distribués d’une ligne par un modèle plus simple de dimension finie appelé π et d’autre part, d’étendre les investigations à une échelle plus grande où une nouvelle méthodologie de troncature est proposée pour l’approximation des modèles dynamiques de grande taille. Elle se distingue des méthodes standards par l’efficacité d’évaluation des dynamiques du système même dans des situations particulières ainsi que la prise en compte de divers besoins pratiques. Il s’agit d’une approche mixte qui combine, d’une part, le principe de la troncature modale et, d’autre part, l’énergie de la réponse impulsionnelle afin de préserver les structures dynamique et physique du système. A cela s’ajoute également la question du nombre et choix des entrées des systèmes à paramètres distribués qui est posée ici d’un point de vue de l’automatique afin de lui donner plus d’utilité pratique, surtout dans les simulateurs numériques. L’approche utilisée à cet effet est algébrique, et la contribution est une étude assez détaillée de l’état de l’art sur le sujet qui a finalement affiné d’avantage la problématique et conduit à de nouvelles pistes plus prometteuses car la question est jusqu’alors partiellement résolue. Plus précisément, les investigations doivent se concentrer désormais sur les commandes dites aux bords ou frontières.D’un point de vue pratique, les résultats obtenus dans cette thèse peuvent être exploités dans l’avenir pour améliorer et facilité les techniques actuelles de simulation et d’analyse en adaptant, par exemple, chaque modèle utilisé aux phénomènes à reproduire
This thesis was motivated by the need to better understand the connection between the models used in simulation of the power systems dynamics and the phenomena which have to be analyzed or reproduced by the simulation. Indeed, to study and to simulate the behavior of the interconnected power systems, the sophisticated models such as the one of the transmission lines are generally replaced by simple ones. Usually, a dynamic structure of the whole system is not taken into account in a simplification step. As a consequence, experimental validations are generally needed to assess the result of the approximation. For this reason, a structural framework and a systemic viewpoint are proposed to make the solutions more general and more appropriate to the approximation of power systems. First, this allows explaining the link between the distributed parameters model of the transmission lines and the finite dimensional one called π model based on the model reduction. Next, a novel mixed approximation methodology for large-scale dynamic models is proposed which allows one to better rate the dynamics of the system in different situations, and to take into account several practical needs. This methodology is based on a mixture between the modal truncation and the energy of the impulse response so that the dynamical and the physical structures of the system remain unchanged. Moreover, in the context of the automatic control theory, the issue related to a number and a choice of input variables for distributed parameters systems is discussed. To address this issue, an algebraic approach is applied. Here, the main contribution is the detailed study conducted on the basis of the state of the art by which a new way is proposed. Because the issue is not fully solved, more investigations have to be focused on the so called boundary control variables. For practical applications, all the results presented in this study can be exploited to further improve numerical simulations and behavioral studies of large-scale power systems
APA, Harvard, Vancouver, ISO, and other styles
16

Girardeau, Pierre. "Résolution de grands problèmes en optimisation stochastique dynamique et synthèse de lois de commande." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00587763.

Full text
Abstract:
Le travail présenté ici s'intéresse à la résolution numérique de problèmes de commande optimale stochastique de grande taille. Nous considérons un système dynamique, sur un horizon de temps discret et fini, pouvant être influencé par des bruits exogènes et par des actions prises par le décideur. L'objectif est de contrôler ce système de sorte à minimiser une certaine fonction objectif, qui dépend de l'évolution du système sur tout l'horizon. Nous supposons qu'à chaque instant des observations sont faites sur le système, et éventuellement gardées en mémoire. Il est généralement profitable, pour le décideur, de prendre en compte ces observations dans le choix des actions futures. Ainsi sommes-nous à la recherche de stratégies, ou encore de lois de commandes, plutôt que de simples décisions. Il s'agit de fonctions qui à tout instant et à toute observation possible du système associent une décision à prendre. Ce manuscrit présente trois contributions. La première concerne la convergence de méthodes numériques basées sur des scénarios. Nous comparons l'utilisation de méthodes basées sur les arbres de scénarios aux méthodes particulaires. Les premières ont été largement étudiées au sein de la communauté "Programmation Stochastique". Des développements récents, tant théoriques que numériques, montrent que cette méthodologie est mal adaptée aux problèmes à plusieurs pas de temps. Nous expliquons ici en détails d'où provient ce défaut et montrons qu'il ne peut être attribué à l'usage de scénarios en tant que tel, mais plutôt à la structure d'arbre. En effet, nous montrons sur des exemples numériques comment les méthodes particulaires, plus récemment développées et utilisant également des scénarios, ont un meilleur comportement même avec un grand nombre de pas de temps. La deuxième contribution part du constat que, même à l'aide des méthodes particulaires, nous faisons toujours face à ce qui est couramment appelé, en commande optimale, la malédiction de la dimension. Lorsque la taille de l'état servant à résumer le système est de trop grande taille, on ne sait pas trouver directement, de manière satisfaisante, des stratégies optimales. Pour une classe de systèmes, dits décomposables, nous adaptons des résultats bien connus dans le cadre déterministe, portant sur la décomposition de grands systèmes, au cas stochastique. L'application n'est pas directe et nécessite notamment l'usage d'outils statistiques sophistiqués afin de pouvoir utiliser la variable duale qui, dans le cas qui nous intéresse, est un processus stochastique. Nous proposons un algorithme original appelé Dual Approximate Dynamic Programming (DADP) et étudions sa convergence. Nous appliquons de plus cet algorithme à un problème réaliste de gestion de production électrique sur un horizon pluri-annuel. La troisième contribution de la thèse s'intéresse à une propriété structurelle des problèmes de commande optimale stochastique : la question de la consistance dynamique d'une suite de problèmes de décision au cours du temps. Notre but est d'établir un lien entre la notion de consistance dynamique, que nous définissons de manière informelle dans le dernier chapitre, et le concept de variable d'état, qui est central dans le contexte de la commande optimale. Le travail présenté est original au sens suivant. Nous montrons que, pour une large classe de modèles d'optimisation stochastique n'étant pas a priori consistants dynamiquement, on peut retrouver la consistance dynamique quitte à étendre la structure d'état du système
APA, Harvard, Vancouver, ISO, and other styles
17

Taha, Rouba. "La contribution du système d'information à l'innovation organisationnelle : une analyse qualitative des grandes entreprises." Versailles-St Quentin en Yvelines, 2008. http://www.theses.fr/2008VERS023S.

Full text
Abstract:
Notre recherche vise à explorer les interactions entre le système d’information et l’innovation organisationnelle au sein des grandes entreprises, tous secteurs confondus. Il s’agit dans un premier temps, et d’un point de vue théorique, d’expliciter la prise en compte des relations entre le système d’information et l’innovation organisationnelle. Dans un second temps, grâce à la littérature et à des études de cas, nous cherchons à spécifier ces concepts dans notre terrain d’investigation, pour mieux les cerner. Enfin et surtout, notre projet vise à préciser comment le système d’information peut contribuer à l’innovation organisationnelle au sein des grandes entreprises. Nous souhaitons dépasser la perspective traditionnelle centrée sur l’innovation technologique comme synonyme de progrès pour l’entreprise et montrer, en particulier, que l’usage du système d’information, au-delà de sa dimension technologique, est un vecteur d’innovation organisationnelle, sous certaines conditions
Our research aims to explore the interactions between the information system and organizational innovation within large companies, from all sectors. At the first step, we explicit the relationship between information system and organizational innovation based on a theoretical point of view. In a second step, through literature and case studies, we seek to specify these concepts in our field of investigation. Finally and it’s the most importantly, our project aims to clarify how the information system can contribute to organisational innovation within large companies. We want to exceed the traditional perspective focuses on technological innovation as synonymous with progress for the company and show that the use of the information system, beyond its technological dimension, is a vector of innovation organizational, under certain conditions
APA, Harvard, Vancouver, ISO, and other styles
18

Carbonnière, Philippe. "Calcul ab-initio de spectres vibrationnels anharmoniques. : Développement méthodologique pour le traitement de systèmes de grande taille." Pau, 2002. http://www.theses.fr/2002PAUU3030.

Full text
Abstract:
Dans le domaine de la spectroscopie vibrationnelle, le développement combiné des méthodes de calcul et de la technologie informatique permet au chimiste théoricien de fournir sur de petits systèmes moléculaires des résultats très précis et ainsi guider les expérimentateurs dans leurs recherches. Si l'on peut fournir de telles informations pour de petites molécules, il est moins évident de traiter de plus gros systèmes (5 à 12 atomes) de part les difficultés d'acquisition et de gestion du nombre colossal de données nécessaires. Est-il donc possible de diminuer sensiblement l'immense effort calculatoire que requiert l'étude vibrationnelle de plus grosses molécules tout en fournissant une information fiable. Pour donner un élément de réponse, nous présentons les développements méthodologiques réalisés tant sur le traitement de la fonction potentielle que sur le traitement vibrationnel anharmonique afin de proposer des outils adaptés au traitement de systèmes de plus grande dimensionalité
In the field of vibrational spectroscopy, the development of ab-initio computational methods and computer technology provide very accurate results for small molecules in order to guide bench scientists in their research. If theoretician chemists are able to provide such informations for small systems, it is less obvious to treat bigger systems (from 5 to 12 atoms) according to the difficulty for obtaining and managing the huge number of required data. Thus, Is it possible to noticeably reduce the great computational cost of vibrational study of larger molecules and provide reliable results at the same time. To give first elements of response, we have carried out methodological developments in the treatment of potential function and in the resolution of anharmonic vibrational problem in order to propose appropriate tools for the treatment of larger systems
APA, Harvard, Vancouver, ISO, and other styles
19

Paulevé, Loïc. "Modélisation, Simulation et Vérification des Grands Réseaux de Régulation Biologique." Phd thesis, Ecole centrale de nantes - ECN, 2011. http://tel.archives-ouvertes.fr/tel-00635750.

Full text
Abstract:
Les Réseaux de Régulation Biologique (RRB) sont communément utilisés en biologie systémique pour modéliser, comprendre et contrôler les dynamiques de production des protéines au sein des cellules. Bien qu'offrant une représentation très abstraite des systèmes biologiques, l'analyse formelle de tels modèles se heurte rapidement à l'explosion combinatoire des comportements engendrés. Cette thèse traite de la modélisation, de la simulation et de la vérification formelle des grands RRB à travers l'introduction d'un nouveau formalisme : les Frappes de Processus. La simplicité de ce formalisme permet notamment l'élaboration d'analyses statiques efficaces des systèmes complexes en général. Cette thèse aborde en premier lieu le raffinement du temps dans les modèles stochastiques via l'introduction d'un facteur d'absorption de stochasticité. Ceci apporte un compromis et une flexibilité entre des spécifications temporelles et stochastiques dans les modélisations hybrides. Une simulation générique (non-markovienne) des calculs de processus est alors proposée et appliquée aux Frappes de Processus. En outre de l'analyse statique des points fixes des Frappes de Processus, cette thèse développe une interprétation abstraite de ces Frappes de Processus permettant des approximations supérieures et inférieures très efficaces de propriétés d'atteignabilité discrète. Cette analyse permet également de faire émerger des composants requis pour la satisfaction de ces propriétés, guidant ainsi le contrôle du système. D'une complexité théorique limitée, cette approche promet de supporter l'analyse de très grands RRB et constitue une ainsi contribution qui ouvre sur de multiples perspectives.
APA, Harvard, Vancouver, ISO, and other styles
20

Nuentsa, Wakam Désiré. "Parallélisme et robustesse dans les solveurs hybrides pour grands systèmes linéaires : application à l'optimisation en dynamique des fluides." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00690965.

Full text
Abstract:
Cette thèse présente un ensemble de routines pour la résolution des grands systèmes linéaires creuses sur des architectures parallèles. Les approches proposées s'inscrivent dans un schéma hybride combinant les méthodes directes et itératives à travers l'utilisation des techniques de décomposition de domaine. Dans un tel schéma, le problème initial est divisé en sous-problèmes en effectuant un partitionnement du graphe de la matrice coefficient du système. Les méthodes de Schwarz sont ensuite utilisées comme outils de préconditionnements des méthodes de Krylov basées sur GMRES. Nous nous intéressons tout d'abord au schéma utilisant un préconditionneur de Schwarz multiplicatif. Nous définissons deux niveaux de parallélisme: le premier est associé à GMRES préconditionné sur le système global et le second est utilisé pour résoudre les sous-systèmes à l'aide d'une méthode directe parallèle. Nous montrons que ce découpage permet de garantir une certaine robustesse à la méthode en limitant le nombre total de sous-domaines. De plus, cette approche permet d'utiliser plus efficacement tous les processeurs alloués sur un noeud de calcul. Nous nous intéressons ensuite à la convergence et au parallélisme de GMRES qui est utilisée comme accélerateur global dans l'approche hybride. L'observation générale est que le nombre global d'itérations, et donc le temps de calcul global, augmente avec le nombre de partitions. Pour réduire cet effet, nous proposons plusieurs versions de GMRES basés sur la déflation. Les techniques de déflation proposées utilisent soit un préconditionnement adaptatif soit une base augmentée. Nous montrons l'utilité de ces approches dans leur capacité à limiter l'influence du choix d'une taille de base de Krylov adaptée, et donc à éviter une stagnation de la méthode hybride globale. De plus, elles permettent de réduire considérablement le coût mémoire, le temps de calcul ainsi que le nombre de messages échangés par les différents processeurs. Les performances de ces méthodes sont démontrées numériquement sur des systèmes linéaires de grande taille provenant de plusieurs champs d'application, et principalement de l'optimisation de certains paramètres de conception en dynamique des fluides.
APA, Harvard, Vancouver, ISO, and other styles
21

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Full text
Abstract:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
APA, Harvard, Vancouver, ISO, and other styles
22

Kabadi, Mohamed Ghassane. "Contribution à la Tolérance aux Défauts des Systèmes Complexes basée sur la Génération de Graphes Causaux." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0048/document.

Full text
Abstract:
Le travail de thèse, qui s'inscrit dans le cadre du projet européen PAPYRUS (Plug and Play monitoring and control architecture for optimization of large scale production processes) du 7ème PCRD, a concerné tout d'abord la synthèse et la mise en œuvre d'une approche de modélisation, de diagnostic et de reconfiguration originale. Celle-ci se fonde sur la génération de graphes causaux permettant de modéliser en temps réel le comportement d'un système complexe dans un premier temps. La cible de cette première étude a été la papeterie Stora Enso d'Imatra en Finlande, qui était le procédé d'application du projet PAPYRUS. En suite logique à cette première partie, une approche permettant l'accommodation du système à certains défauts particuliers a été définie par l'ajustement des signaux de consigne de diverses boucles de régulation. Le manuscrit est structuré en trois parties. Dans la première, le projet européen PAPYRUS est présenté. Le rôle de chaque partenaire y est décrit au travers des différents « workpackages » et le travail de thèse y est positionné. La seconde partie de la thèse a pour objectif la génération d'un modèle utile au diagnostic en se fondant uniquement sur les différents signaux mesurés du système. Plus précisément, un modèle causal graphique est présenté par la mise en évidence des liens de causalité entre les différentes variables mesurées. Des analyses à base d'inter-corrélation, de transfert d'entropie et du test de causalité de Granger sont effectuées. Une approche de diagnostic fondée sur le modèle graphique ainsi obtenu est ensuite proposée en utilisant un test d'hypothèse séquentiel. La dernière partie est dédiée au problème d'accommodation aux défauts. Le graphe utilisé pour établir le diagnostic du système est remanié afin de faire apparaitre les différentes boucles de régulation du système. Une stratégie permettant la sélection de consignes influentes est alors proposée avec l'objectif d'ajuster ces dernières afin de compenser l'effet du défaut survenu
The thesis deals with modelling, diagnosis and fault tolerance of large scale processes. It is a part of the European project PAPYRUS (7th FWP). First, the European PAPYRUS project is described with details on the role of each partner through work package descriptions. The positioning of the thesis in this respect is also given. The second part of the thesis is about modelling graphical models for diagnosis purpose; more precisely, graphical causal model is used to highlight the causal links between the different variables of the process. To obtain such a model from data, several methods are proposed based on cross-correlation, entropy transfer and Granger causality. A diagnosis-based approach on the resulting graphical model is then proposed using statistical test and causal model of the process. This approach is illustrated using data from an industrial process and results are validated. The final section addresses fault tolerance based on digraph inferences and reference governor. This approach is illustrated using a MATLAB simulation which has a functional architecture similar to Board Machine 4 of Stora Enso IMATRA in Finland
APA, Harvard, Vancouver, ISO, and other styles
23

David, Albert. "Négociation et coopération pour le développement des produits nouveaux au sein d'une grande entreprise industrielle : Analyse critique et rôle des outils d'aide à la décision." Paris 9, 1988. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1988PA090040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Rivière, Gabriel. "Délocalisation des mesures semi-classiques pour des systèmes dynamiques chaotiques." Palaiseau, Ecole polytechnique, 2009. http://pastel.paristech.org/5721/01/these-riviere-final.pdf.

Full text
Abstract:
Dans cette thèse, on étudie deux paradigmes du chaos quantique: celui des symplectomorphismes linéaires du tore et celui du flot géodésique sur une variété riemannienne compacte. Dans les deux cas, on étudie le problème d'ergodicité quantique associé. Les résultats obtenus sont de deux sortes. D'une part, on obtient des bornes inférieures sur l'entropie des mesures semi-classiques en dimension 2. D'autre part, on obtient des résultats de type grandes déviations semi-classiques en toute dimension
APA, Harvard, Vancouver, ISO, and other styles
25

Yang, Yuan. "Analyse de signaux EEG pour des applications grand-public des interfaces cerveau-machine." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0043.

Full text
Abstract:
Les interfaces cerveau-machine (ICM) utilisent les signaux émis par le cerveau pour contrôler des machines ainsi que des appareils (claviers, voitures, neuro-prothèses). Après plusieurs décennies de développement, les techniques de ICM modernes montrent une maturité relative par rapport aux dernières décennies et reçoivent de plus en plus d'attention dans les applications grand public du monde réel, en particulier dans le domaine des interactions homme-machine pour personnes en bonne santé, par exemple les neuro-jeux. L'objectif de cette thèse est de développer un modèle d'ICM et des algorithmes de traitement de signaux EEG pour relever ces défis, donc conduire à une ICM non-invasive, portable et facile à utiliser, exploitant des rythmes EEG pour les applications grand public (non médicales). Pour atteindre cet objectif, un examen de l'état de l'art (prototypes existants et produits commerciaux, configurations expérimentales, algorithmes) a d'abord été effectué pour acquérir une bonne compréhension de ce domaine. Les contributions de cette thèse comprennent : 1) un paradigme ICM hybride avec peu d'électrodes, 2) la réduction de la dimensionnalité pour l'ICM multi-canal (avec un nombre élevé d'électrodes), 3) la réduction et la sélection de canal, 4) l'amélioration de la classification pour l'ICM avec des électrodes prédéterminées. Les résultats expérimentaux montrent que les méthodes proposées dans cette thèse peuvent améliorer les performances de classification et/ou augmenter l'efficacité du système (par exemple, réduire le temps d'apprentissage, réduire le coût du matériel), de manière à contribuer à des ICM pour des applications générales
Brain-computer interfaces (BCIs) use signals from the brain to control machines and devices (keyboards , cars, neuro- prostheses) . After several decades of development, modern BCI techniques show a relative maturity compared to the past decades and receive more and more attention in real-world general public applications, in particular in the domain of BCI-based human-computer interactions for healthy people, such as neuro-games. The aim of this thesis is to develop an experimental setup and signal processing algorithms for non-invasive, portable and easy-to-use BCI systems for large public (non-medical) applications. To achieve this goal, a review of the state of the art (existing prototypes and commercial products, experimental setup, algorithms) is first performed to get a full scope and a good understanding in this field. The main contributions of this thesis include: 1) a hybrid BCI paradigm with a few electrodes , 2) dimensionality reduction for multi-channel BCI (with a high number of electrodes ), 3) reduction and selection channel , 4) improved classification for BCI with a few predetermined electrodes. The experimental results show that the methods proposed in this thesis can improve classification performance and / or increase the efficiency of the system ( for example, reduce the learning time, reduce the cost of equipment ) , so as to contribute to BCI for the general applications
APA, Harvard, Vancouver, ISO, and other styles
26

Lapon, Jean-Luc. "La contribution de la direction informatique à l'alignement stratégique : une analyse des types de directions informatiques alignées dans les grandes entreprises françaises." Paris 1, 1998. http://www.theses.fr/1998PA010048.

Full text
Abstract:
Cette thèse porte sur la contribution de la direction informatique (DI) à l'alignement stratégique, c'est-à-dire l'intégration des technologies de l'information et de la communication (TIC) et des stratégies de l'entreprise. Elle s'appuie sur le caractère stratégique des TIC et sur la situation de crise de la DI, explicative d'une contribution insatisfaisante aux objectifs de l'entreprise, pour poser la question centrale de cette étude : comment améliorer la contribution de la DI à l'alignement stratégique. Pour y répondre, elle se fonde sur le modèle d'alignement stratégique de Venkatraman / Henderson, analyse ses faiblesses, le caractère non opérationnel et l'absence d'acteurs, puis s'en sert comme pivot d'une recherche terrain menée auprès de 15 grandes entreprises françaises. Deux résultats sont mis en évidence : - un outil de diagnostic de la position de contribution de la DI fondé sur cinq variables d'audit qui permettent l'identification de positions de contributions insatisfaisantes de la DI, qualifiées de DI non alignées ; ou en voie d'alignement ; - Un outil de pilotage de l'alignement stratégique qui répond à trois questions : qui contribue, comment améliorer la contribution de la DI, et quelles formes de DI pour mieux contribuer. Cet outil apporte des acteurs qui contribuent à l'alignement stratégique, direction générale / direction opérationnelle / DI, ce qui tend à déplacer la responsabilité historique de la DI dans la gestion des TIC vers un acteur collectif. Il identifie cinq variables d'alignement qui expliquent comment améliorer la contribution de la DI. Il présente une typologie de DI alignées ; résultant de l'articulation des stratégies d'acteurs et des variables d'alignement : la DI prestataire de service ; la DI stratégique ; et la DI exécutrice de prescription. Enfin cette thèse propose comme prolongement possible la piste de l'alignement organisationnel, une autre voie d'alignement qui part du métier
This thesis concerns the information system divisions (ISD) contribution to strategic alignment, ie the integration of information technology (IT) in company strategies. It is based on the it strategic nature and on the isd crisis situation, explaining the unsatisfactory contribution to the company objectives, and leading to the central question of this survey : how to improve the ISD contribution to strategic alignment ?. In response, it reposes on the strategic alignment model of venkatraman and henderson, analyzes its weaknesses, its lacks of effectiveness and absence of players and then uses it as a springboard for a field study of 15 great french companies. Two conclusions result : - an evaluation of the ISD contribution position based on five audit variables which allow the identification of unsatisfactory isd contribution positions, described as non aligned ; or on the way to alignment. A tool for monitoring strategic alignment, which answers to three questions : who contributes ?, how to improve the isd contribution ? Which ISD types for a better contribution ?. This monitoring tool includes players who contribute to strategic alignment, executive management ? Operations management, ISD, which tends to displace the traditional responsability of it towards a collective party. It identifies five alignment variables which explain how to improve the isd contribution. It presents an aligned ISD ; typology, resulting from the articulation of players strategies and alignment variables : ISD as service provider ; strategic ; ISD, and ISD as directions executioner. Finally, this thesis proposes as a possible extension, the path to organizational alignment, another road to alignment which stands from core business of operations management
APA, Harvard, Vancouver, ISO, and other styles
27

Wallart, Olivier. "Contribution à l'interprétation de scènes vastes par une approche multi-capteurs." Littoral, 2002. http://www.theses.fr/2002DUNK0079.

Full text
Abstract:
Ce travail présente l'architecture d'un système de perception distribuée. Des modules de vision constitués de caméras et d'unités de traitement analysent la scène selon des points de vue distincts et sans recouvrement. Les objectifs du système d'interprétation globale sont la classification et le suivi global des objets dans les scènes autoroutières. Le suivi global est réalisé par l'intermédiaire d'une ré-identification des objets perçus par plusieurs caméras. Les difficultés du système d'interprétation concernent la gestion des erreurs lors de l'identification des objets d'une part, mais également les contraintes temps réel que le système doit respecter. La gestion des erreurs est prise en charge par un raisonnement approximatif basé sur la théorie des possibilités et les aspects temps réel du système sont gérés par un raisonnement distribué et temporel. Deux algorithmes d'association liés à des contextes d'utilisation différents sont développés. L'approche par la programmation dynamique traite l'association en tenant compte d'un ensemble d'objet attendu au niveau de chaque module de vision. Le deuxième algorithme utilisant une approche de fusion temporelle multi-capteurs pour la surveillance prolonge les raisonnements approximatifs et temporels en gérant dans le temps la qualité des décisions
This work presents the architecture of the distributed perception system. The system is composed by several vision units analysing the scene from distinct points of view and without recovery. The objectives of the interpretation are the classification and tracking of objects in motorway scenes. The global tracking is carried out by a re-identification of objects perceived by several cameras. The difficulties of the system concern firstly the management of the uncertainty at the re-identification stage, and also the real time constraints of the application. The management of the uncertainty is dealt with an approximate reasoning by using the possibility theory. Real time constraints are taken into account by a distributed and temporal algorithm. Two algorithms of association for object re-identification are developed. The first is based on a dynamic programming algorithm. It decides for a majority of awaited objects independently for each vision unit. For surveillance applications, a temporal fusion approach for association is proposed in order to control the instantaneous quality of each decision over the system
APA, Harvard, Vancouver, ISO, and other styles
28

Yang, Yuan. "Analyse de signaux EEG pour des applications grand-public des interfaces cerveau-machine." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0043/document.

Full text
Abstract:
Les interfaces cerveau-machine (ICM) utilisent les signaux émis par le cerveau pour contrôler des machines ainsi que des appareils (claviers, voitures, neuro-prothèses). Après plusieurs décennies de développement, les techniques de ICM modernes montrent une maturité relative par rapport aux dernières décennies et reçoivent de plus en plus d'attention dans les applications grand public du monde réel, en particulier dans le domaine des interactions homme-machine pour personnes en bonne santé, par exemple les neuro-jeux. L'objectif de cette thèse est de développer un modèle d'ICM et des algorithmes de traitement de signaux EEG pour relever ces défis, donc conduire à une ICM non-invasive, portable et facile à utiliser, exploitant des rythmes EEG pour les applications grand public (non médicales). Pour atteindre cet objectif, un examen de l'état de l'art (prototypes existants et produits commerciaux, configurations expérimentales, algorithmes) a d'abord été effectué pour acquérir une bonne compréhension de ce domaine. Les contributions de cette thèse comprennent : 1) un paradigme ICM hybride avec peu d'électrodes, 2) la réduction de la dimensionnalité pour l'ICM multi-canal (avec un nombre élevé d'électrodes), 3) la réduction et la sélection de canal, 4) l'amélioration de la classification pour l'ICM avec des électrodes prédéterminées. Les résultats expérimentaux montrent que les méthodes proposées dans cette thèse peuvent améliorer les performances de classification et/ou augmenter l'efficacité du système (par exemple, réduire le temps d'apprentissage, réduire le coût du matériel), de manière à contribuer à des ICM pour des applications générales
Brain-computer interfaces (BCIs) use signals from the brain to control machines and devices (keyboards , cars, neuro- prostheses) . After several decades of development, modern BCI techniques show a relative maturity compared to the past decades and receive more and more attention in real-world general public applications, in particular in the domain of BCI-based human-computer interactions for healthy people, such as neuro-games. The aim of this thesis is to develop an experimental setup and signal processing algorithms for non-invasive, portable and easy-to-use BCI systems for large public (non-medical) applications. To achieve this goal, a review of the state of the art (existing prototypes and commercial products, experimental setup, algorithms) is first performed to get a full scope and a good understanding in this field. The main contributions of this thesis include: 1) a hybrid BCI paradigm with a few electrodes , 2) dimensionality reduction for multi-channel BCI (with a high number of electrodes ), 3) reduction and selection channel , 4) improved classification for BCI with a few predetermined electrodes. The experimental results show that the methods proposed in this thesis can improve classification performance and / or increase the efficiency of the system ( for example, reduce the learning time, reduce the cost of equipment ) , so as to contribute to BCI for the general applications
APA, Harvard, Vancouver, ISO, and other styles
29

Emelin, Samuel. "Analyse et intercomparaison des choix techniques majeurs en terme de structures de réseau et de règles d'exploitation parmi les grands distributeurs d'électricité." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT042.

Full text
Abstract:
Confronté à un contexte de stagnation globale de la consommation d'électricité mais avec un potentiel important de développement de nouveaux usages, ainsi qu'à l'apparition d'unités de production dispersée sur le territoire, le principal gestionnaire de réseau de distribution français a besoin d'expliciter ce que sont ses grands choix de structure et de règles d'exploitation, et de les comparer avec les distributeurs étrangers. Les principes de construction du réseau ont un impact sur la capacité à intégrer les nouvelles installations de consommation ou de production à moindre cout, et à assurer les exigences sociétales,notamment pour ce qui concerne la continuité de fourniture. Cette thèse permet de comparer ces choix techniques majeurs avec les pratiques rencontrées à l'étranger, pour situer le réseau français et ses spécificités dans un environnement technique international.Après avoir arrêté une perspective de développement des usages et des productions en France sur la base notamment des textes législatifs, l'architecture du réseau de distribution français est décrite. Les différences fonctionnelles de choix de structure dans le monde sont alors analysés, en soulignant les conséquences dans le dimensionnement par rapport au cas français. Puis l'équilibre entre niveaux de tension est questionné, ainsi que les effet des caractéristiques du territoire sur le réseau. Enfin, des choix techniques nouveaux sont proposés après analyse des points forts et des points faibles des variantes existant dans le monde
Faced to a context of a global lack of growth in electricity consumption, but with many potential development of new uses, added with the appearance of more and more dispersed generation, the main French distribution grid utility needs to question and compare its choicesconcerning grid structure and exploitation practices. Grid building principles have a greatimpact over its capacity to integrate at low cost consumption and production facilities, whilemeeting society needs, mainly continuity of supply. This work allows to compare thosetechnical choices between France and other countries, to determine where French utilitystands and what are its specific features in a worldwide technical environment.After setting a perspective about uses and production development, mainly on the basis of French legislation, the overall distribution grid architecture is described. Functional differences in structure choices in the world are then analysed, their consequences in thesizing of equipments is underlined. Then the equilibrium between voltage levels is questioned,as the effect of territorial features on the grid. Finally, new technical choices are proposed after advantages and drawbacks analysis of existing world grids
APA, Harvard, Vancouver, ISO, and other styles
30

Nabil, Lamrani. "Dynamique et microphysique des systèmes convectifs de l'Afrique de l'Ouest : Une analyse d'une ligne de grains par radar Doppler polarimétrique." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00358206.

Full text
Abstract:
Dans le cadre du projet international AMMA, visant à documenter la variabilité de la Mousson Africaine de l'Ouest (MAO), le radar polarimétrique Doppler en bande-C, RONSARD, ainsi qu'un récepteur bistatique Doppler ont été déployés dans le nord du Bénin durant l'été 2006 pour appréhender la dynamique et la microphysique des systèmes convectifs caractéristiques de la Mousson.
La phase de préparation de cette campagne a été l'occasion de proposer une solution au problème posé par un réseau de radar Doppler monostatique-bistatique : la contamination des données bistatiques par les lobes secondaires de la fonction d'antenne du radar monostatique. Cette solution basée sur l'analyse variationnelle permet de s'affranchir du rejet systématique de données bistatiques contaminées, pratiqué jusqu'alors. Testée avec des données synthétiques, puis réelles, cette méthode permet d'utiliser l'ensemble des données échantillonnées et donc d'assurer des restitutions 3D de champs de vent sur des domaines plus importants avec des méthodes Dual-Doppler classiques.
Durant la campagne, le récepteur bistatique n'a pas fonctionné, et, seul le radar RONSARD a assuré une acquisition de mesures exploitables sur le nord du Bénin. Aussi, l'étude de la ligne de grains du 28 juillet 2006, qui fait suite à la phase expérimentale, sera principalement basée sur ces données. La dynamique et la microphysique de ce système ont pu être détaillées à l'échelle convective et à la mésoéchelle. Sa dynamique, comparable à des études antérieures sur le même thème, nous a permis en la comparant à sa distribution particulaire de mieux comprendre les processus microphysiques mis en jeu dans les différentes régions d'intérêt. Les restitutions microphysiques sont cohérentes avec les descriptions de la dynamique du système avec une évidente organisation des classes d'hydrométéores de la phase liquide en pluie fine, modérée et forte dans la partie convective, et en pluie fine à modérée dans la partie stratiforme. A proximité de l'isotherme 0°C, une couche de mélange composée de neige mouillée a été identifiée. Concernant la région convective, la phase solide nous a montré une structure mixte de neige roulée et de grêle, piégée dans un environnement de cristaux de glace et de neige sèche. La fonte des particules solides et la coalescence de particules fines de pluie contribuent au renforcement des précipitations en pluie moyenne. A la mésoéchelle, l'analyse composite a fait apparaître le lien entre les panaches de mélange de neige roulée et de grêle avec le renforcement de la pluie moyenne ainsi que le rôle joué par l'évaporation sous la partie stratiforme de la ligne de grains.
APA, Harvard, Vancouver, ISO, and other styles
31

Lamrani, Nabil. "Dynamique et microphysique des systèmes convectifs de l'Afrique de l'ouest : une analyse d'une ligne de grains par radar doppler polarimétrique." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/448/.

Full text
Abstract:
Dans le cadre du projet international AMMA, visant à documenter la variabilité de la Mousson Africaine de l'Ouest (MAO), le radar polarimétrique Doppler en bande-C, RONSARD, ainsi qu'un récepteur bistatique Doppler ont été déployés dans le nord du Bénin durant l'été 2006 pour appréhender la dynamique et la microphysique des systèmes convectifs caractéristiques de la Mousson. La phase de préparation de cette campagne a été l'occasion de proposer une solution au problème posé par un réseau de radar Doppler monostatique-bistatique : la contamination des données bistatiques par les lobes secondaires de la fonction d'antenne du radar monostatique. Cette solution basée sur l'analyse variationnelle permet de s'affranchir du rejet systématique de données bistatiques contaminées, pratiqué jusqu'alors. Testée avec des données synthétiques, puis réelles, cette méthode permet d'utiliser l'ensemble des données échantillonnées et donc d'assurer des restitutions 3D de champs de vent sur des domaines plus importants avec des méthodes Dual-Doppler classiques. Durant la campagne, le récepteur bistatique n'a pas fonctionné, et, seul le radar RONSARD a assuré une acquisition de mesures exploitables sur le nord du Bénin. Aussi, l'étude de la ligne de grains du 28 juillet 2006, qui fait suite à la phase expérimentale, sera principalement basée sur ces données. La dynamique et la microphysique de ce système ont pu être détaillées à l'échelle convective et à la mésoéchelle. Sa dynamique, comparable à des études antérieures sur le même thème, nous a permis en la comparant à sa distribution particulaire de mieux comprendre les processus microphysiques mis en jeu dans les différentes régions d'intérêt. Les restitutions microphysiques sont cohérentes avec les descriptions de la dynamique du système avec une évidente organisation des classes d'hydrométéores de la phase liquide en pluie fine, modérée et forte dans la partie convective, et en pluie fine à modérée dans la partie stratiforme. .
During the AMMA international project, aimed to observe the variability of the West African Monsoon, the C-band polarimetric Doppler radar RONSARD and a bistatic receiver have been deployed in northern Benin during summer 2006 in order to document dynamics and microphysics of monsoon-related convective systems. The preparation phase of this campaign gave us an opportunity to examine and to propose a solution to the problem involved in a monostatic-bistatic Doppler radar network: the sidelobe contamination of bistatic measurements by the monostatic radar antenna gain. This solution based on variational analysis, proposes an alternative solution to the forced rejection of bistatic Doppler data so far considered. Tests with synthetic and real data are performed and this method allow us to use the complete sampled dataset in order to retrieve 3D wind fields on more important domains, using classical dual-Doppler methods. During the campaign, the bistatic receiver did not work and only the RONSARD radar provided exploitable measurements on northern Benin. In particular, the RONSARD data collected within the 28th July 2006 squall line were used to document the dynamics and microphysics at convective scale and mesoscale in this study. Dynamics, comparable to those from previous studies, and hydrometeor distribution allow us to better understand the microphysical processes involved in different regions of interest. .
APA, Harvard, Vancouver, ISO, and other styles
32

Amestoy, Patrick. "Factorisation de grandes matrices creuses non symétriques basée sur une méthode multifrontale dans un environnement multiprocesseur." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT050H.

Full text
Abstract:
Nous nous interessons aux methodes directes de resolution des grands systemes lineaires creux. Nous considerons la factorisation lu dans un environnement mimd a memoire partagee. Notre demarche est basee sur la methode multifrontale (duff et reid 1983), ou les taches sont distribuees parmi les processeurs selon un arbre d'elimination qui peut etre engendre automatiquement a partir de n'importe quelle strategie de pivotage. L'algorithme original de duff (1969) a ete modifie afin d'ameliorer ses performances du point de vue de la vectorisation et de la parallelisation. Nous montrons que, meme si une implementation optimale du code depend des caracteristiques de la machine utilisee, un ensemble limite de parametres peut etre mis en place pour controler l'efficacite du code dans un environnement multiprocesseur. La croissance des valeurs numeriques durant la factorisation est controlee a l'aide d'un pivotage partiel avec critere de seuil. Le pivotage partiel degrade les performances de la factorisation. Nous decrivons comment modifier la strategie de pivotage pour reduire le remplissage durant la factorisation. Nous etudions enfin l'influence de l'equilibrage de la matrice sur la precision numerique et sur l'efficacite du solveur. La comparaison avec d'autres methodes montre que nous avons combine la portabilite, l'efficacite, et la precision sur un grand nombre de calculateurs a memoire partagee. Nous montrons finalement que la methode multifrontale est un outil efficace pour la resolution de nombreux problemes numeriques poses par la mecanique des fluides
APA, Harvard, Vancouver, ISO, and other styles
33

Lewin, Mathieu. "Systèmes quantiques à grand nombre de particules :une perspective mathématique et numérique." Habilitation à diriger des recherches, Université de Cergy Pontoise, 2009. http://tel.archives-ouvertes.fr/tel-00394205.

Full text
Abstract:
Ce mémoire est consacré à l'étude mathématique de divers modèles variationnels permettant la description de systèmes quantiques, en particulier infinis. Les outils mathématiques utilisés sont ceux de l'analyse non linéaire, du calcul des variations, des équations aux dérivées partielles, de la théorie spectrale et du calcul scientifique.

Une première partie contient quelques résultats pour des systèmes finis. Nous étudions des approximations de l'équation de Schrödinger pour N électrons dans une molécule ou un atome, puis le modèle de Hartree-Fock-Bogoliubov pour un système de fermions interagissant avec une force de type gravitationnelle.

Dans une seconde partie nous proposons une nouvelle méthode pour démontrer l'existence de la limite thermodynamique pour des systèmes quantiques interagissant avec la force de Coulomb.

Ensuite, nous construisons deux modèles de type Hartree-Fock pour des systèmes infinis. Le premier est un modèle relativiste, déduit de l'électrodynamique quantique, et qui permet de décrire le comportement d'électrons, couplés avec celui du vide de Dirac qui peut se polariser. Le second modèle décrit l'état d'un cristal non relativiste en présence d'un défaut chargé ; il est complété par une nouvelle approche numérique.

La dernière partie du mémoire est consacrée au problème de pollution spectrale, un phénomène observé lorsque l'on cherche à calculer des valeurs propres au milieu du spectre essentiel, par exemple pour des opérateurs de Dirac ou de Schrödinger périodique.
APA, Harvard, Vancouver, ISO, and other styles
34

Hamdi-Larbi, Olfa. "Etude de la distribution, sur système à grande échelle, de calcul numérique traitant des matrices creuses compressées." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0018.

Full text
Abstract:
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre côté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i. E. La résolution des systèmes linéaires (RSL) et le calcul d'éléments propres (CEP) de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de RSL et de CEP et ce, dans le cas creux. Le produit matrice-vecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, le prétraitement, le traitement et le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente
Several scientific applications often use kernels performing computations on large sparse matrices. For reasons of efficiency in time and space, specific compression formats are used for storing such matrices. Most of sparse scientific computations address sparse linear algebra problems. Here two fundamental problems are often considered i. E. Linear systems resolution (LSR) and matrix eigen-values/vector computation (EVC). In this thesis, we address the problem of distributing, onto a Large Scale Distributed System (LSDS), computations performed in iterative methods for both LSR and EVC. The sparse matrix-vector product (SMVP) constitutes a basic kernel in such iterative mathods. Thus, our problem reduces to the SMVP distribution study on an LSDS. In principle, three phases are required for achieving this kind of applications, namely, pre -processing, processing and post-processing. In phase 1, we first proceed to the optimization of four versions of the SMVP algorithm corresponding to four specific matrix compressing formats, then study their performances on sequential target machines. In addition, we focus on the study of load balancing in the procedure of data (i. E. The sparse matrix rows) distribution on a LSDS. Concerning the processing phase, it consists in validating the previous study by a series of experimentations achieved on a volunteer distributed system we installed through using XtremWeb-CH middleware. As to the post-processing phase, it consists in interpreting the experimental results previously obtained in order to deduce adequate conclusions
APA, Harvard, Vancouver, ISO, and other styles
35

Chevalier, Jérôme-Alexis. "Statistical control of sparse models in high dimension." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG051.

Full text
Abstract:
Cette thèse s’intéresse au problème de l’inférence statistique multivariée en grande dimension en présence de données structurées. Plus précisément, étant données une variable cible et un ensemble de variables explicatives, nous souhaitons déterminer les variables explicatives qui sont prédictives conditionnellement aux autres, i.e., nous cherchons à identifier le support dans le modèle prédictif linéaire. Comme nous désirons avoir un contrôle sur l’occurrence de faux positifs, nous nous concentrons sur les méthodes donnant des garanties statistiques. Cette étude s’applique notamment aux problèmes d’inférence sur des images haute-résolution dans lesquels le signal de chaque pixel ou voxel est considéré comme une variable explicative, c’est par exemple le cas en neuro-imagerie ou en astronomie. Cela peut également s’appliquer à d’autres problèmes dans lesquels les variables explicatives sont spatialement structurées comme en génomique par exemple. Pour ce type de données, les méthodes existantes destinées à l’identification de support ne sont pas satisfaisantes car elles manquent de puissance et ont généralement un coût computationnel trop élevé. Par conséquent, le problème est difficile en terme de modélisation statistique mais aussi du point de vue computationnel. Dans ce type de problème, les variables explicatives détiennent une structure spatiale qui peut être exploitée. Par exemple, en neuro-imagerie, une image de cerveau possède une représentation 3D dans laquelle un voxel est très corrélé à ses voisins. Nous proposons notamment la méthode ”ensemble of clustered desparsified Lasso” qui combine trois éléments: i) une procédure de clustering avec contraintes spatiales pour réduire la dimension du problème en tenant compte de la structure de la donnée; ii) une méthode d’inférence statistique appelée ”desparsified Lasso” qui peut être déployée sur le problème réduit; et iii) une méthode d’ensembling qui agrège les solutions obtenues sur les différents problèmes réduits afin d’éviter de dépendre d’un choix de clustering nécessairement imparfait et arbitraire. Nous proposons également une nouvelle façon de contrôler l’occurrence de faux positifs en intégrant une tolérance spatiale dans ce contrôle. Dans cette étude, nous nous focalisons sur des jeux de donnée de neuro-imagerie, mais les méthodes que nous présentons sont applicables à d’autres domaines qui partagent une configuration semblable
In this thesis, we focus on the multivariate inference problem in the context of high-dimensional structured data. More precisely, given a set of explanatory variables (features) and a target, we aim at recovering the features that are predictive conditionally to others, i.e., recovering the support of a linear predictive model. We concentrate on methods that come with statistical guarantees since we want to have a control on the occurrence of false discoveries. This is relevant to inference problems on high-resolution images, where one aims at pixel- or voxel-level analysis, e.g., in neuroimaging, astronomy, but also in other settings where features have a spatial structure, e.g., in genomics. In such settings, existing procedures are not helpful for support recovery since they lack power and are generally not tractable. The problem is then hard both from the statistical modeling point of view, and from a computation perspective. In these settings, feature values typically reflect the underlying spatial structure, which can thus be leveraged for inference. For example, in neuroimaging, a brain image has a 3D representation and a given voxel is highly correlated with its neighbors. We notably propose the ensemble of clustered desparsified Lasso (ecd-Lasso) estimator that combines three steps: i) a spatially constrained clustering procedure that reduces the problem dimension while taking into account data structure, ii) the desparsified Lasso (d-Lasso) statistical inference procedure that is tractable on reduced versions of the original problem, and iii) an ensembling method that aggregates the solutions of different compressed versions of the problem to avoid relying on only one arbitrary data clustering choice. We consider new ways to control the occurrence of false discoveries with a given spatial tolerance. This control is well adapted to spatially structured data. In this work, we focus on neuroimaging datasets but the methods that we present can be adapted to other fields which share similar setups
APA, Harvard, Vancouver, ISO, and other styles
36

Louf, Baptiste. "Cartes de grand genre : de la hiérarchie KP aux limites probabilistes." Thesis, Université de Paris (2019-....), 2020. http://www.theses.fr/2020UNIP7020.

Full text
Abstract:
Cette thèse s’intéresse aux cartes combinatoires, qui sont définies comme des plongements de graphes sur des surfaces, ou de manière équivalente comme des recollements de polygones. Le genre g de la carte est défini comme le nombre d’anses que possède la surface sur laquelle elle est plongée.En plus d’être des objets combinatoires, les cartes peuvent être représentées comme des factorisations de permutations, ce qui en fait également des objets algébriques, qu’on peut notamment étudier grâce à la théorie des représentations du groupe symétrique. En particulier, ces propriétés algébriques des cartes font que leur série génératrice satisfait la hiérarchie KP (et sa généralisation, la hiérarchie 2-Toda). La hiérarchie KP est un ensemble infini d’équations aux dérivées partielles en une infinité de variables. Les équations aux dérivées partielles de la hiérarchie KP se traduisent ensuite en formules de récurence qui permettent d’énumérer les cartes en tout genre.D’autre part, il est intéressant d’étudier les propriétés géométriques des cartes, et en particulier des très grandes cartes aléatoires. De nombreux travaux ont permis d’étudier les propriétés géométriques des cartes planaires, c’est à dire de genre 0. Dans cette thèse, on étudie les cartes de grand genre, c’est à dire dont le genre tend vers l’infini en même temps que la taille de la carte. Ce qui nous intéressera particulièrement est la notion de limite locale, qui décrit la loi du voisinage d’un point particulier (la racine) des grandes cartes aléatoires uniformes.La première partie de cette thèse (Chapitres 1 à 3) est une introduction à toutes les notions nécessaires : les cartes, bien entendu, mais également la hiérarchie KP et les limites locales. Dans un deuxième temps (Chapitres 4 et 5), on cherchera à approfondir la relation entre cartes et hiérarchie KP, soit en expliquant des formules existantes par des constructions combinatoires, soit en découvrant de nouvelles formules. La troisième partie (Chapitres 6 et 7) se concentre sur l’étude des limites locales des cartes de grand genre, en s’aidant notamment de résultats obtenus grâce à la hiérarchie KP. Enfin le manuscrit se conclut par quelques problèmes ouverts (Chapitre 8)
This thesis focuses on combinatorial maps, which are defined as embeddings of graphs on surfaces, or equivalently as gluing of polygons. The genus g of the map is defined as the number of handles of the surface on which it is embedded.In addition to being combinatorial objects, the maps can be represented as factorizations of permutations, which also makes them algebraic objects, which one can study in particular thanks to the representation theory of the symmetric group. In particular, these algebraic properties of maps mean that their generating series satisfies the KP hierarchy (and its generalization, the 2-Toda hierarchy). The KP hierarchy is an infinite set of partial differential equations in an infinity of variables. The partial differential equations of the KP hierarchy are then translated into recurrence formulas which make it possible to enumerate maps of any genus.On the other hand, it is interesting to study the geometric properties of maps, and in particular very large random maps. Many works have focused on the geometrical properties of planar maps, ie of genus 0. In this thesis, we study maps of large genus, that is to say whose genus tends towards infinity at the same time as the size of the map. What will particularly interest us is the notion of local limit, which describes the law of the neighborhood of a particular point (the root) of large uniform random maps.The first part of this thesis (Chapters 1 to 3) is an introduction to all the necessary concepts: maps, of course, but also the KP hierarchy and local limits. In a second part (Chapters 4 and 5), we will seek to deepen the relationship between maps and KP hierarchy, either by explaining existing formulas by combinatorial constructions, or by discovering new formulas. The third part (Chapters 6 and 7) focuses on the study of the local limits of large maps, using in particular the results obtained from the KP hier-archy. Finally the manuscript ends with some open problems (Chapter 8)
APA, Harvard, Vancouver, ISO, and other styles
37

Gilbert, Frédéric. "Méthodes et modèles pour la visualisation de grandes masses de données multidimensionnelles nominatives dynamiques." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14498/document.

Full text
Abstract:
La visualisation d'informations est un domaine qui connaît un réel intérêt depuis une dizaine d'années. Dernièrement, avec l'explosion des moyens de communication, l'analyse de réseaux sociaux fait l'objet de nombreux travaux de recherches. Nous présentons dans cette thèse des travaux sur l'analyse de réseaux sociaux dynamiques, c'est à dire que nous prenons en compte l'aspect temporel des données. [...]
Since ten years, informations visualization domain knows a real interest.Recently, with the growing of communications, the research on social networks analysis becomes strongly active. In this thesis, we present results on dynamic social networks analysis. That means that we take into account the temporal aspect of data. We were particularly interested in communities extraction within networks and their evolutions through time. [...]
APA, Harvard, Vancouver, ISO, and other styles
38

Mercier, Lucas. "Grands graphes et grands arbres aléatoires : analyse du comportement asymptotique." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0028/document.

Full text
Abstract:
Cette thèse est consacrée à l'étude du comportement asymptotique de grands graphes et arbres aléatoires. Le premier modèle étudié est un modèle de graphe aléatoire inhomogène introduit par Bo Söderberg. Un chapitre de ce manuscrit est consacré à l'étude asymptotique de la taille des composantes connexes à proximité de la fenêtre critique, en le reliant à la longueur des excursions d'un mouvement brownien avec dérive parabolique, étendant les résultats obtenus par Aldous. Le chapitre suivant est consacré à un processus de graphes aléatoires proposé par Itai Benjamini, défini ainsi : les arêtes sont ajoutées indépendamment, à taux fixe. Lorsqu'un sommet atteint le degré k, toutes les arêtes adjacentes à ce sommet sont immédiatement supprimées. Ce processus n'est pas croissant, ce qui empêche d'utiliser directement certaines approches usuelles. L'utilisation de limites locales permet de montrer la présence (resp. l'absence) d'une composante géante à certaines étapes dans le cas k>=5 (resp. k<=3). Dans le cas k=4, ces résultats permettent de caractériser la présence d'une composante géante en fonction du caractère surcritique ou non d'un processus de branchement associé. Dans le dernier chapitre est étudiée la hauteur d'un arbre de Lyndon associé à un mot de Lyndon choisi uniformément parmi les mots de Lyndon de longueur n, prouvant que cette hauteur est approximativement c ln n, avec c=5,092... la solution d'un problème d'optimisation. Afin d'obtenir ce résultat, nous couplons d'abord l'arbre de Lyndon à un arbre de Yule, que nous étudions ensuite à l'aide de techniques provenant des théories des marches branchantes et des grandes déviations
This thesis is dedicated to the study of the asymptotic behavior of some large random graphs and trees. First is studied a random graph model introduced by Bo Söderberg in 2002. One chapter of this manuscript is devoted to the study of the asymptotic behavior of the size of the connected components near the critical window, linking it to the lengths of excursion of a Brownian motion with parabolic drift. The next chapter talks about a random graph process suggested by Itai Benjamini, defined as follows: edges are independently added at a fixe rate. Whenever a vertex reaches degree k, all adjacent edges are removed. This process is non-increasing, preventing the use of some commonly used methods. By using local limits, in the spirit of the PWIT, we were able to prove the presence (resp. absence) of a giant component at some stages of the process when k>=5 (resp. k<=3). In the case k=4, these results allows to link the presence (resp. absence) of a giant component to the supercriticality (resp. criticality or subcriticality) of an associated branching process. In the last chapter, the height of random Lyndon tree is studied, and is proven to be approximately c ln n, in which c=5.092... the solution of an optimization problem. To obtain this result, we couple the Lyndon tree with a Yule tree, then studied with the help of branching walks and large deviations
APA, Harvard, Vancouver, ISO, and other styles
39

Coupechoux, Emilie. "Analyse de grands graphes aléatoires." Paris 7, 2012. http://www.theses.fr/2012PA077184.

Full text
Abstract:
Plusieurs types de réseaux du monde réel peuvent être représentés par des graphes. Comme il s'agit de réseaux de très grande taille, leur topologie détaillée est généralement inconnue, et nous les modélisons par de grands graphes aléatoires ayant les mêmes propriétés statistiques locales que celles des réseaux observés. Un exemple de telle propriété est la présence de regroupements dans les réseaux réels : si deux individus ont un ami en commun, ils ont également tendance à être amis entre eux. Etudier des modèles de graphes aléatoires qui soient à la fois appropriés et faciles à aborder d'un point de vue mathématique représente un challenge, c'est pourquoi nous considérons plusieurs modèles de graphes aléatoires possédant ces propriétés. La propagation d'épidémies dans les graphes aléatoires peut être utilisée pour modéliser plusieurs types de phénomènes présents dans les réseaux réels, comme la propagation de maladies, ou la diffusion d'une nouvelle technologie. Le modèle épidémique que nous considérons dépend du phénomène que nous voulons représenter :. Un individu peut contracter une maladie par un simple contact avec un de ses amis (ces contacts étant indépendants),. Mais une nouvelle technologie est susceptible d'être adoptée par un individu lorsque beaucoup de ses amis ont déjà la technologie en question. Nous étudions essentiellement ces deux différents cas de figure. Dans chaque cas, nous cherchons à savoir si une faible proportion de la population initialement atteinte (ou ayant la technologie en question) peut propager l'épidémie à une grande partie de la population
Several kinds of real-world networks can be represented by graphs. Since such networks are very large, their detailed topology is generally unknown, and we model them by large random graphs having the same local statistical properties as the observed networks. An example of such properties is the fact that real-world networks are often highly clustered : if two individuals have a friend in common, they are likely to also be each other's friends. Studying random graph models that are both appropriate and tractable from a mathematical point of view is challenging, that is why we consider several clustered random graph models. The spread of epidemics in random graphs can be used to model several kinds of phenomena in real-world networks, as the spread of diseases, or the diffusion of a new technology. The epidemic model we consider depends on the phenomenon we wish to represent :. An individual can contract a disease by a single contact with any of his friends (such contacts being independent),. But a new technology is likely to be adopted by an individual if many of his friends already have the technology in question. We essentially study these two cases. In each case, one wants to know if a small proportion of the population initially infected (or having the technology in question) can propagate the epidemic to a large part of the population
APA, Harvard, Vancouver, ISO, and other styles
40

Jego, Guillaume. "Influence des activités agricoles sur la pollution nitrique des eaux souterraines : analyse par modélisation des impacts des systèmes de grande culture sur les fuites de nitrate dans les plaines alluviales." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/469/.

Full text
Abstract:
Il est désormais bien reconnu que les activités agricoles sont à l'origine d'une grande part de la pollution des nappes souterraines par les ions nitrate. Le cas des plaines alluviales est particulièrement intéressant puisqu'elles associent la présence d'un sol riche et profond, très favorable à l'agriculture, et d'une nappe alluviale peu profonde. Dans ce travail nous nous sommes intéressés à deux types de plaine alluviale. La plaine alluviale de la rivière Alegria (Pays-Basque ; Espagne) représente le cas d'une nappe alluviale avec un cours d'eau de faible importance. La recharge de l'aquifère se fait alors principalement par l'infiltration et la percolation de l'eau à travers la zone non saturée du sol. Dans une telle situation les fuites de nitrate sous les parcelles agricoles influencent donc significativement les concentrations en nitrate de la nappe. La modélisation de deux situations culturales (une culture de pommes de terre en 1993 et une culture de betteraves à sucre en 2002) avec le modèle de culture STICS a permis d'une part de confirmer que les pratiques agricoles avaient un impact significatif sur l'évolution des concentrations en nitrate de la nappe, et d'autre part d'expliquer en partie la diminution des concentrations en nitrate de la nappe qui a été observé entre les études (1993 et 2002). La plaine alluviale de la Garonne correspond à une situation ou les concentrations en solutés de la nappe sont influencées par les échanges nappe-zone non saturée mais également par les échanges nappe-rivière. Le couplage des sorties du modèle STICS (drainage et concentration en nitrate) avec le modèle hydro-biogéochimique 2SWEM a permis de rendre compte de ces deux types d'interactions, et ainsi d'une part d'expliquer la répartition spatiale des concentrations en nitrate dans la nappe alluviale, et d'autre part d'évaluer l'impact de modifications des pratiques agricoles sur ces concentrations (notamment l'effet des Cultures Intermédiaires Piège À Nitrate)
It is now, well recognized that agricultural activities are responsible for an important part of the groundwater nitrate pollution. The case of the alluvial plains is particularly interesting because they associate the presence of a rich and deep soil, very favourable to the agriculture, and shallow alluvial groundwater. In this work we are interested in two types of alluvial plain. The alluvial plain of the Alegria River (Pays-Basque, Spain) represent the case of an alluvial plain with a small river. The recharge of the aquifer is mainly made by the infiltration and the percolation of the water through the not saturated zone of the soil. In such situation the nitrate leaching under the agricultural plots influences significantly the groundwater nitrate concentrations. The modelling of two crops (a potato crop in 1993 and a sugar beet crop in 2002) with the model the STICS soil-crop allowed on one hand to confirm that the agricultural practices had a significant impact on the evolution of the groundwater nitrate concentrations, and on the other hand to explain partially the decrease of the concentrations which was observed between the studies (between 1993 and 2002). The alluvial plain of the Garonne corresponds to a situation where the groundwater solutes concentrations are influenced by the exchanges between not saturated zone and the groundwater but also by the exchanges between groundwater and river. The coupling of the STICS model outputs (drainage and concentration in nitrate) with the hydro-biogeochemical model 2SWEM allowed to simulate these two types of interactions, and so, on one hand to explain the spatial distribution of the groundwater nitrate concentrations, and on the other hand to estimate the impact of modifications of the agricultural practices on these concentrations (notably the effect of the catch crop)
APA, Harvard, Vancouver, ISO, and other styles
41

Mor, Elsa. "La transition énergétique urbaine : vers une reconfiguration multi- niveaux des systèmes de gouvernance et des systèmes énergétiques ? : Deux études de cas contrastées : Bristol (Royaume-Uni) et Munich (Allemagne)." Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA3010/document.

Full text
Abstract:
La thèse porte sur les processus de transition énergétique urbaine et leur caractère multi-niveaux. Sachant que les processus de transition ne peuvent être pensés indépendamment du contexte local dans lequel ils évoluent et qu’ils se construisent en interaction avec les autres niveaux d’action, leur compréhension appelle une analyse multi-niveaux, mettant en lumière les articulations en jeu entre les échelles de décision et d'action. La première partie montre que le caractère systémique et transversal des enjeux climat-énergie complexifie les processus de gouvernance et participe à leur reconfiguration à toutes les échelles d’action, remettant en question les cadres conceptuels et les champs disciplinaires conventionnels. Les deuxième et troisième parties mobilisent des études de cas contrastées, Munich et Bristol. Cette analyse révèle un choc des modèles de transition, entre Bristol, privilégiant une stratégie de décentralisation et de résilience énergétique, portée par la municipalité, les communautés énergétiques et les acteurs industriels, et Munich, adoptant une stratégie de délocalisation de la production d’électricité et d’internationalisation des activités de la régie municipale d’énergie (SWM) – 7ème géant allemand. On observe à l’échelle locale et non sans paradoxe une inversion des dynamiques et des modèles énergétiques nationaux. Le centralisme britannique agit comme une contrainte structurante sur la stratégie décentralisée de Bristol ; tandis qu'à Munich, l’Energiewende est un catalyseur pour la stratégie industrielle délocalisée de la SWM, qui devient en retour un acteur majeur de la transition fédérale au vu de son envergure
The PhD addresses the processes of urban energy transition and their multi-level dimension. Given that these processes cannot be considered independently from the local context in which they apply and that they are built in interaction with the other levels of action, understanding them calls for a multi-level analysis to shed light the articulations between the different scales of decision and action. The first part shows that the systemic and cross-cutting nature of the climate-energy issues makes governance processes more complex and contributes to their reorganization at all scales of action by questioning the standard conceptual frameworks and disciplinary fields. The second and third parts develop mixed case studies, Munich and Bristol. This analysis reveals a contrast in the transition models, between Bristol, which favors a strategy of decentralization and energy resilience supported by the municipality, the energy communities and the industrial actors, and Munich, which adopts a strategy organized around the relocation of electricity generation and the internationalization of activities of the municipal energy company (SWM) – 7th largest German producer. A reversal of the dynamics and national models of energy is paradoxically observed between the national and the local scales. The UK centralism acts as a structural constraint for the decentralized strategy of Bristol, in Munich, the EnergieWende is a driver for the industrial and delocalized strategy of the SWM, which becomes a major player in the federal transition given its scale
APA, Harvard, Vancouver, ISO, and other styles
42

Dalmasso, Hélène. "Analyse stratigraphique et modélisation numérique de systèmes carbonatés néritiques tropicaux à subtropicaux : discrimination et quantification des paramètres de contrôle : cas de la plate-forme fini-jurassique/éocrétacée de Basse-Provence et de la Grande Barrière Récifale quaternaire d'Australie." Aix-Marseille 1, 2001. http://www.theses.fr/2001AIX11018.

Full text
Abstract:
Ce travail porte sur le fonctionnement et l'organisation de systèmes carbonatés néritiques de zones subtropicales à tropicales. Deux sites d'étude ont été sélectionnés : la plate-forme d'âge fini-jurassique/éocrétacé de Basse-Provence et la Grande Barrière Récifale d'Australie d'âge quaternaire. Ces deux plates-formes se sont développées dans des contextes climatiques distincts : en Basse-Provence, période à effet de serre et en Australie, à alternance de périodes glaciaires et interglaciaires. Afin de quantifier les facteurs ayant contrôlé le développement des dites plates-formes, ont été conjointement utilisées la modélisation numérique et l'analyse stratigraphique. L'approche numérique repose sur l'utilisation des modèles CARBONATE 7 (Bosence & Waltham, 1990) et FUZZIM (Nordlund, 1999). Cette double approche a permis de confirmer ou d'infirmer les hypothèses émises à partir de l'analyse sédimentologique du modèle géologique quant aux modalités de développement des deux plates-formes, de définir les géométries de dépôts et la répartition des faciès, et enfin de discriminer et de quantifier les facteurs de contrôle du développement des deux plates-formes. L'évolution de la plate-forme fini-jurassique/éocrétacée a été régie par des fluctuations relatives du niveau marin à très haute fréquence (comprises entre 5 et 30 ka) et à faible amplitude (de quelques dizaines de centimètres à quelques mètres, en moyenne 1 m). Le développement de la Grande Barrière Récifale d'Australie a été contrôlé par les fluctuations du niveau marin (approximativement 100 ka) et à forte amplitude (50 à 100 m en moyenne). Ainsi, les variations d'accommodation apparaissent jouer un rôle majeur dans l'organisation de ces systèmes carbonatés. Leur influence est modulée par des facteurs autocycliques tels que production carbonatée, géométrie et morphologie de la plate-forme, durée des dépôts. Bien que les modèles numériques utilisés aient conduit à des résultats significatifs, différents aspects méritent d'être améliorés ou développés : prise en compte d'une représentation en 3D de la surface topographique initiale, quantification de la température et de la salinité des eaux de surface, de la turbidité, des effets diagénétiques, principalement, induits par les conditions climatiques, sur la sédimentation
APA, Harvard, Vancouver, ISO, and other styles
43

Paroissin, Christian. "Résultats asymptotiques pour des grands systèmes réparables monotones." Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002101.

Full text
Abstract:
Nous présentons des résultats asymptotiques pour des systèmes monotones réparables, lorsque le nombre de composants est grand. On supposera que les composants sont indépendants, identiques, multi-états et markoviens. Les systèmes k-sur-n généralisés, pour lesquels le niveau k dépend de nombre n de composants, seront les principaux modèles étudiés. Nous montrerons un théorème central limite et une loi des grands nombres pour le premier instant de panne correspondant à un certain niveau k. Nous montrons également une loi du zéro-un pour la disponibilité d'une grande classe de systèmes.
APA, Harvard, Vancouver, ISO, and other styles
44

Tombuyses, Béatrice. "Modélisation markovienne en fiabilité: réduction des grands systèmes." Doctoral thesis, Universite Libre de Bruxelles, 1994. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212700.

Full text
Abstract:
Le sujet de cette thèse de doctorat est l'étude de divers aspects liés à l'approche markovienne dans le cadre des études de fiabilité.

La première partie de cette thèse concerne Ia modélisation d'installations industrielles et la construction de la matrice de transition. Le but poursuivi est le développement d'un code markovien permettant une description réaliste et aisée du système. Le système est décrit en termes de composants multiétats :pompes, vannes .

La définition d'une série de règles types permet l'introduction de dépendances entre composants. Grâce à la modélisation standardisée du système, un algorithme permettant la construction automatique de la matrice de transition est développé. L'introduction d'opérations de maintenance ou d'information est également présentée.

La seconde partie s'intéresse aux techniques de réduction de la taille de la matrice, afin de rendre possible le traitement de grosses installations. En effet, le nombre d'états croit exponentiellement avec le nombre de composants, ce qui limite habituellement les installations analysables à une dizaine de composants. Les techniques classiques de réduction sont passées en revue :

accessibilité des états,

séparation des groupes de composants indépendants,

symétrie et agrégation exacte des états (cfr Papazoglou). Il faut adapter la notion de symétrie des composants en tenant compte des dépendances pouvant exister entre composants.

Une méthode d'agrégation approchée pour le calcul de la fiabilité et de la disponibilité de groupes de composants à deux états est développée.

La troisième partie de la thèse contient une approche originale pour l'utilisation de la méthode markovienne. Il s'agit du développement d'une technique de réduction basée sur le graphe d'influence des composants. Un graphe d'influence des composants est construit à partir des dépendances existant entre composants. Sur base de ce graphe, un système markovien non homogène est construit, décrivant de manière approchée le comportement du système exact. Les résultats obtenus sur divers exemples sont très bons.

Une quatrième partie de cette thèse s'intéresse aux problèmes numériques liés à l'intégration du système différentiel du problème markovien. Ces problèmes résultent principalement du caractère stiff du système. Différentes méthodes classiques sont implantées pour l'intégration du système différentiel. Elles sont testées sur un exemple type de problème de fiabilité.

Pour finir, on trouve la présentation du code CAMERA dans lequel ont été implantées les différentes techniques présentées ci-dessus.


Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
45

Guillot, Stéphane. "Optimisation de grands systèmes non linéaires en métallurgie." Lille 1, 1986. http://www.theses.fr/1986LIL10051.

Full text
Abstract:
Optimisation sous contrainte transformée en optimisation sans contrainte par les méthodes de pénalisation (on considère les fonctions de pénalisation exactes non différentiables). Solution par la programmation quadratique séquentielle en métrique variable. Modélisation de système de grande dimension (usine)
APA, Harvard, Vancouver, ISO, and other styles
46

Ravier, Béatrice. "Méthodes performantes de résolution de grands systèmes linéaires." Paris 11, 1986. http://www.theses.fr/1986PA112215.

Full text
Abstract:
Ce travail traite essentiellement des méthodes de résolution rapide de grands systèmes linéaires, pour un problème elliptique posé dans un domaine de R2 formé d'un, puis de plusieurs rectangles (domaine en L, en "fourche") Au dernier chapitre, le cas d'un domaine quelconque est abordé. Le but des méthodes mathématiques décrites pour effectuer la résolution sur les domaines composés est de mettre en évidence des sous-problèmes sur chacun des rectangles constituants afin d'utiliser les algorithmes performants de résolution conçus pour ces domaines élémentaires (Analyse de Fourier (FA), Réduction cyclique (CR) et FACR(1)) Les problèmes de recollement de domaines sont envisagés de deux manières différentes: les rectangles ont ou n'ont pas même maillage Dans le second cas, plus intéressant, la recherche d'interpolations adéquates (linéaires, de degré 2) nécessaires à la discrétisation de l'équation sur l'interface est d'abord entreprise, puis le problème est considéré sous un angle différent, en utilisant la méthode des équations intégrales qui permet d'ignorer le maillage et d'éviter les difficultés d'approche de la solution sur l'interface. Le problème elliptique sur un domaine quelconque est résolu par plongement de ce dernier dans un rectangle, où la situation est alors simple
This work deals essentially with fast solving methods of large linear systems for an elliptic problem given in a domain included in R2, and composed with one, then several rectangles (domain having L-form or "fork"-domain). In the last chapter, the case of general domain is approached. The aim of the mathematical methods described for effecting the resolution on composite domains is to display subproblems on every component rectangle, where the fast solving algorithms, specially written for those elementary domains can be used (Fourier Analysis (FA), Cyclic Reduction (CH) and FACR(1)). The problems of association of domains are considered in two different ways: the rectangles have or have not the same mesh. For this second case, more interesting, in a first time, is the research of adapted interpolations (linear, of degree 2) required for the discretization of the equation on the in­ terface entered upon; then the problem is considered in an ether point of view, using the integral equations method which allows not to take care of the mesh, and which also allows to avoid difficulties of approach of the solution on the interface. The elliptic problem in general domains is solved by imbedding of this last one in a rectangle, where the situation is easy
APA, Harvard, Vancouver, ISO, and other styles
47

Charvet, Quemin Françoise. "Synthèse modale des systèmes articulés en grands déplacements." Paris 6, 1990. http://www.theses.fr/1990PA066076.

Full text
Abstract:
De nouveaux impératifs de légèreté et de plus grande mobilité ont amené les roboticiens à concevoir des robots à composants flexibles, ouvrant par là-même un nouveau champ d'investigations dans la modélisation dynamique des robots. Le propos de ce travail est la construction en vue de simulations numériques d'un modèle dynamique des robots souples. L'étude porte sur des déformations linéaires et s'appuie sur la décomposition des déplacements en deux contributions: une contribution de corps rigide (pouvant contenir de grandes rotations) et une contribution de corps flexible. Nous avons associé au traitement du problème une méthode de synthèse modale qui utilise les modes propres libres de chaque sous-structure pour modéliser leur déformabilité, et une famille de modes d'ensemble pour représenter leurs mouvements de corps rigide. La méthode a été implantée dans un code de calcul par éléments finis, Castem2000, et a été appliquée à la prédiction du mouvement d'un bras robot souple asservi.
APA, Harvard, Vancouver, ISO, and other styles
48

Ahmad, Ahmad. "Caractérisation globale et locale de l'écoulement à surface libre et en charge de systèmes liquide-liquide : application au procédé d’injection pariétale pour le transport des pétroles bruts." Brest, 2010. http://www.theses.fr/2010BRES2013.

Full text
Abstract:
Le travail de recherche décrit dans la présente thèse, considère l’écoulement à surface libre et en charge de systèmes liquide/liquide. La première partie du mémoire est consacrée à l’étude de la propagation d’un courant gravitaire à la surface d’un liquide ambiant plus dense et miscible, au repos. Nous avons relâché à la surface d’un bassin d’eau salée, un débit contrôlé d’eau douce, puis de solutions polymères afin de caractériser à l’aide d’une méthode basée sur l’analyse des images et l’exploitation des diagrammes spatio-temporels, l’effet de la rhéofluidification sur l’avancée, l’étalement et l’enfoncement du courant gravitaire dans le liquide ambiant. Une caractérisation locale consistant en la mise au point d’une PIV grande échelle, visant à décrire les champs hydrodynamiques dans l’un et l’autre fluides a complété l’étude globale précédente. La seconde partie présente quant à elle, considère un écoulement en-courant eau/huile dans une conduite, afin de simuler le procédé d’injection pariétale de transport de pétrole brut par pipeline, ce dernier étant représenté par une huile dôtée d’une très forte viscosité et d’un comportement viscoplastique. Nous avons notamment caractérisé l’effet de la pente et du rapport des débits sur les pertes de charge globales, afin de définir les conditions de fonctionnement de plus grande efficacité du procédé. Une caractérisation locale des instabilités interfaciales a complété l’étude globale précédente
The present dissertation reports on investigations on open-channel flows and Poiseuille flows of liquid/liquid systems. The first part of the dissertation considers the propagation of a gravity current over a denser ambient miscible liquid. A controlled flow rate of fresh water and of polymer solutions were released upon the free surface of an ambient salty water at rest in a basin, in order to characterize with te help of a method based on image analysis and the exploitation of spatio-temporal diagrams, the effect of polymer shear-thinning property on the temporal evolution of front progress and spreading of gravity current in ambient liquid and of mixing layer depth as well. A local study consisting in the development of a large scale PIV, aiming at describe to hydrodynamic fields existing in both fluids completed the previous global study. The second part of the dissertation considers a co-current water/oil flow in a duct, in order to simulate the lubricated pipelining of heavy crude oils which were being represented by oils gifted with high viscosity and a viscoplastic rheological behaviour. The effect of bed slope and flow rates ratio on global pressure drop were characterized in order to define the conditions of process optimal efficiency. A local characterization of the interfacial instabilities completed the previous global investigation
APA, Harvard, Vancouver, ISO, and other styles
49

Khiat, Ali. "Capteurs à fibres optiques pour la mesure à haute résolution de déplacements linéaires et angulaires sur une grande étendue : application aux systèmes mécaniques de dimensions réduites." Compiègne, 2007. http://www.theses.fr/2007COMP1720.

Full text
Abstract:
La demande croissante de systèmes mécaniques et mécatroniques miniatures exige la miniaturisation des composants ayant une fonction d'actionnement ou de mesure dans ces systèmes. Des capteurs miniatures, privilégiant un rapport entre la limite de résolution et l'étendue de la mesure de l'ordre de 10-5 à 10-6, s'avèrent alors des éléments incontournables. Ce mémoire présente la conception et la réalisation de deux capteurs à fibres optiques pour la mesure à haute résolution de déplacements linéaires et angulaires sur de grandes étendues utilisant un même principe. Après une étude bibliographique portant sur les capteurs optiques, une modélisation géométrique de la mesure de déplacements linéaires sur une grande étendue par l'utilisation de deux sondes et d'un réseau a été réalisée. Un premier réseau optique en alliage d'aluminium a été obtenu par Usinage Haute Précision. Puis, grâce à la micro fabrication du silicium, un second réseau a été réalisé dans le but d'améliorer les performances du capteur. Il a ainsi été permis de l'intégrer dans un système mécanique miniature avec une limite de résolution de 27,4 nm sur une étendue linéaire de 9 mm. En dupliquant ce principe, des mesures dans un plan ont été réalisées. Le deuxième capteur développé mesure des déplacements angulaires au moyen d'une sonde, contenant deux détecteurs et d'un miroir non structuré. Une modélisation a été réalisée et une bonne corrélation a été observée entre les résultats numériques et expérimentaux sur une étendue comprise entre -23,44° et +23,44° avec une limite de résolution optimale de 0,48xI0-3o. Enfin, après duplication de ce dernier principe, un inclinomètre bidimensionnel miniature a été réalisé
The request increasing of miniature mechanical and mechatronics systems requires the miniaturization of the components to have a function of actuation or ability to measure to these systems. Miniature sensors, privileging a ratio between the limit of resolution and the range of measurement of about a 10-5 to 10-6, are then elements impossible to circumvent. This Ph. D. Presents the design and the realization of two optical fibers sens ors for measurement with high resolution in two dimensions of linear and angular displacements on great range using the same principle. After a bibliographical study relating to the optical sensors, a geometrical modelling of the measure of linear displacements on a great range by the use of two probes and a grating was carried out. First, an optical grating in aluminium alloy was obtained by High Precision Machining. Then, thanks to the micro fabrication of silicon, a second grating was carried out with the aim of improving the sensor performances. It was thus allowed to be integrated in a miniature mechanical system with a limit of resolution of 27. 4 nm on a linear range of about 9 mm. By duplicating this principle, the measurements on a plane were carried out. The second sens or developed measures the angular displacements by means of a probe, containing two detectors and a mirror not structured. A model was made and a good correlation was observed between the numerical and experimental results on a range between -23. 44° and +23. 44° with an optimal limit of resolution of 0. 48 x 10-30. Lastly, after duplication of this last principle, a miniature two-dimensional inclinometer was carried out
APA, Harvard, Vancouver, ISO, and other styles
50

Acket, Sébastien. "Implication du métabolisme carboné pour une production différentielle d'huile chez les plantes oléagineuses-Lin : modélisation des systèmes." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2168/document.

Full text
Abstract:
Les graines de lin sont composées de teneurs élevées en huile (45 g d’huile/100g MS) stockées sous forme de triglycérides dans l’embryon (Venglat et al., 2011). Ces huiles hautement insaturées sont utilisées depuis de nombreuses années pour des applications industrielles (vernis, linoleum…). Toutefois, ces huiles riches en oméga-3 présentent également une grande importance pour la santé humaine. Pour cette raison, l’industrie alimentaire est particulièrement intéressée pour développer des produits enrichis en huile de lin. Pour répondre à cette demande, il est nécessaire de sélectionner des cultivars accumulant plus d’huile. Afin de sélectionner efficacement de telles plantes, il est nécessaire d'acquérir des connaissances sur les mécanismes de synthèse, d’accumulation et de régulation des huiles dans les graines oléagineuses (Sharma et Chauhan 2012). Pour comprendre les accumulations des huiles dans les graines de lin et leurs régulations, deux lignées de lin ayant des teneurs en huile différent ont été sélectionnées (Astral : 44,6 ± 0,2 g d’huile/100g MS ; 238 : 37,0 ± 0,7 g d’huile/100g MS). Dans ce travail, nous avons déterminé les différences d’accumulation des composées de la graines entre les deux lignées dans les embryons, les téguments, la différence d’expression des gènes dans ces embryons et ces téguments, et analyser les flux métaboliques dans les embryons des deux lignées de lin durant la synthèse des acides gras. Ces études ont montré : (i) que les embryons de lin Astral qui accumule plus d’huile dans ses embryons accumule moins de protéines dans les embryons, (ii) que les téguments de lin Astral accumule moins de proanthocyanidines et de protéines que dans les téguments de la lignée 238, (iii) qu’aucun lien avec l’accumulation différente en huile dans les embryons et la différence d’accumulation dans les téguments n’a pu être mis en évidence, (iii) que le glucose est le précurseur carboné permettant la synthèse des acides gras, (iv) que le flux de carbone permettant la synthèse des acides gras passe majoritairement par la glycolyse cytosolique jusqu’au PEP cytosolique qui est transporté dans le plaste pour être convertie en pruvate puis acétylCoA, précurseur de la synthèse des acides gras, (v) que le flux permettant la synthèse de G3P est 29 fois plus élevée que dans les embryons de lin 238 que dans les embryons de lin Astral, (vi) : que la surexpression du gène codant pour la DHAP synthase (genolin_c54022 317) et la G3PDH (genolin_c10324 594) dans les embryons de la lignée Astral/238, pourraient induire une synthèse plus importante de G3P nécessaire à la formation des triglycérides
Flax seeds are composed oh high levels of oil (45 g oil / 100 g DM) stored as triglycerides in their embryos (Venglat et al., 2011). These highly unsatured oils have been used for many years for industrial applications (varnish, linoleum,...). However, these oils rich in omega-3 are also a great importance to human health. for this reason, the food industry is particularly interesed to develop innovative products enriched in linseed oil. To meet these requirements, it is necessary to develop linseed cultivars that accumulate more oils. In order to select such plants, it is necessary to acquire knowledge on mechanisms, accumulation and regulation of oils synthesis in oilseeds (Sharma and Chauhan, 2012). To better understand oil accumulation in flaxseed, two linseed genotypes presenting different level in oil content were selected (Astral : 44,6 ± 0,2 g oil / 100 MS ; 238 : 37,0 ± 0,7 g oil / 100 g DM). In this work, we determined the differences in accumulation between the two lines in embryos, integumen, the difference in gene expression in the embryos and the integument, and we analysed the metabolic flux in the embryos of both flax lines during the synthesis of fatty acids. These studies have shown : (i) the flax embryos Astral accumulates more oil in its embryo accumulates less protein in embryos, (ii) that the Astal flax husks accumulates less proanthocyanidins and proteins in teguments of the line 238, (iii) no link with the different oil accumumation in embryos and the difference in accumulation the integument could be demonstrated, (iv) that the glucose is the carbon precursor for the synthesis of fatty acids, (v) thet the flow of carbon to the synthesis of fatty acids predominantly through cytosolic glycolysis to PEP cytosolic, that is transported into the plastic for conversion to pruvate then acetylCoA, precursor synthesis of fatty acids, (vi) the flow for the synthesis of G3P in Astral embryos is 29 times higher than in the 238 embryos, (vii) the overexpression of the gene encoding the DHAP synthase (genolin_c54022 317) and G3PDH (genolin-c10324 594) in embryos of the Astral / 238, could induce a higher synthesis G3P necessary for the triglycerides
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography