Dissertations / Theses on the topic 'Algorithme linéaire'

To see the other types of publications on this topic, follow the link: Algorithme linéaire.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithme linéaire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sultan, Ziad. "Algèbre linéaire exacte, parallèle, adaptative et générique." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM030/document.

Full text
Abstract:
Les décompositions en matrices triangulaires sont une brique de base fondamentale en calcul algébrique. Ils sont utilisés pour résoudre des systèmes linéaires et calculer le rang, le déterminant, l'espace nul ou les profiles de rang en ligne et en colonne d'une matrix. Le projet de cette thèse est de développer des implantations hautes performances parallèles de l'élimination de Gauss exact sur des machines à mémoire partagée.Dans le but d'abstraire le code de l'environnement de calcul parallèle utilisé, un langage dédié PALADIn (Parallel Algebraic Linear Algebra Dedicated Interface) a été implanté et est basé essentiellement sur des macros C/C++. Ce langage permet à l'utilisateur d'écrire un code C++ et tirer partie d’exécutions séquentielles et parallèles sur des architectures à mémoires partagées en utilisant le standard OpenMP et les environnements parallel KAAPI et TBB, ce qui lui permet de bénéficier d'un parallélisme de données et de taches.Plusieurs aspects de l'algèbre linéaire exacte parallèle ont été étudiés. Nous avons construit de façon incrémentale des noyaux parallèles efficaces pour les multiplication de matrice, la résolution de systèmes triangulaires au dessus duquel plusieurs variantes de l'algorithme de décomposition PLUQ sont construites. Nous étudions la parallélisation de ces noyaux en utilisant plusieurs variantes algorithmiques itératives ou récursives et en utilisant des stratégies de découpes variées.Nous proposons un nouvel algorithme récursive de l'élimination de Gauss qui peut calculer simultanément les profiles de rang en ligne et en colonne d'une matrice et de toutes ses sous-matrices principales, tout en étant un algorithme état de l'art de l'élimination de Gauss. Nous étudions aussi les conditions pour qu'un algorithme de l'élimination de Gauss révèle cette information en définissant un nouvel invariant matriciel, la matrice de profil de rang
Triangular matrix decompositions are fundamental building blocks in computational linear algebra. They are used to solve linear systems, compute the rank, the determinant, the null-space or the row and column rank profiles of a matrix. The project of my PhD thesis is to develop high performance shared memory parallel implementations of exact Gaussian elimination.In order to abstract the computational code from the parallel programming environment, we developed a domain specific language, PALADIn: Parallel Algebraic Linear Algebra Dedicated Interface, that is based on C/C + + macros. This domain specific language allows the user to write C + + code and benefit from sequential and parallel executions on shared memory architectures using the standard OpenMP, TBB and Kaapi parallel runtime systems and thus providing data and task parallelism.Several aspects of parallel exact linear algebra were studied. We incrementally build efficient parallel kernels, for matrix multiplication, triangular system solving, on top of which several variants of PLUQ decomposition algorithm are built. We study the parallelization of these kernels using several algorithmic variants: either iterative or recursive and using different splitting strategies.We propose a recursive Gaussian elimination that can compute simultaneously therow and column rank profiles of a matrix as well as those of all of its leading submatrices, in the same time as state of the art Gaussian elimination algorithms. We also study the conditions making a Gaussian elimination algorithm reveal this information by defining a new matrix invariant, the rank profile matrix
APA, Harvard, Vancouver, ISO, and other styles
2

Wegner, Karas Elizabeth. "Exemples de chemins centraux non réguliers et un algorithme de filtre pour l'optimisation non-linéaire." Paris 1, 2002. http://www.theses.fr/2002PA010070.

Full text
Abstract:
Ce travail se divise en deux parties indépendantes. Dans la première partie, nous étudions dans le cadre de l'optimisation convexe, quelques exemples de chemins centraux à l'allure mouvementée, nous construisons des fonctions objectifs de complexité croissante dans une région très simple de R2. La première de ces fonctions est convexe continue ; et conduit à un chemin cnetral en forme d'antenne, avec un nombre infini de segments horizontaux de longueur constante. Dans le deuxième exemple, on perturbe la première fonction. Le résultat est un chemin en forme de zigzag, avec variation infinie. Nous régularisons ces deux fonctions en gardant leur convexité et sans modifier la disposition des chemins centraux nous obtenons les mêmes allures pour des fonctions objectifs de classe C infinie. Dans la deuxième partie, nous introduisons un algorithme de filtre globalement convergent pour l'optimisation non linéaire. Chaque itération est composée d'une phase d'admissibilité et dune phase d'optimisation. Les deux phases sont indépendantes, et peuvent faire intervenir n'importe quels algorithmes (qui doivent toutefois satisfaire quelques hypothèses raisonnables). Le seul lien entre les deux phases est qu'elles ne doivent pas permettre de générer des points interdits par le filtre. Sous des hypothèses classiques nous montrons que la suite générée par l'algorithme a pint d'accumulation stationnaire. Alors nous montrons comment un petit changement dans l'algorithme principal exclue la possibilité de gérer des points d'accumulation non stationnaires.
APA, Harvard, Vancouver, ISO, and other styles
3

Vau, Bernard. "Algorithmes d’identification par régression pseudo-linéaire avec prédicteurs paramétrisés sur des bases généralisées de fonctions de transfert orthonormales." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN062.

Full text
Abstract:
Cette thèse porte sur l’identification des systèmes linéaires stationnaires, représentés par des fonctions de transfert en temps discret. Pour un ordre donné, contrairement aux méthodes d'identification visant explicitement à minimiser la variance de l'erreur de prédiction, les algorithmes basés sur la régression pseudo-linéaire induisent des modèles dont la distribution des biais est dépendante de la paramétrisation du prédicteur. Ceci a été démontré grâce au concept innovant d'erreur de prédiction équivalente, signal en général non mesurable, dont la variance est effectivement minimisée dans le cadre de la régression pseudo-linéaire.Dans un second temps, sont proposées des versions revisitées des algorithmes récursifs de l'erreur de sortie et des moindres carrés étendus (ainsi que de leurs équivalents en boucle fermée), dont les prédicteurs sont exprimés sur les bases généralisées de fonctions de transfert orthonormales, introduites par Heuberger et al. dans les années 1990 et 2000. La sélection des pôles de la base revient à imposer le noyau reproduisant de l'espace de Hilbert auquel appartiennent ces fonctions de transfert, et à spécifier la manière dont l'approximation est réalisée par les algorithmes. Nous utilisons une expression particulière de ce noyau reproduisant pour introduire un indicateur de l'effet des pôles de la base sur la qualité de l'ajustement du modèle dans le domaine fréquentiel. Cet indicateur joue un grand rôle d'un point de vue heuristique. Enfin, un test de validation en adéquation avec ces algorithmes d'identification est proposé, dont les propriétés statistiques sont explicitées. Les retombées concrètes de ces travaux résident dans la mise à disposition de paramètres de réglages simples et peu nombreux (les pôles de la base), utilisables en fonction du but implicite assigné à l'identification. L'obtention de modèles d'ordre réduit s'en trouve facilitée. De plus l'identification des systèmes raides - comportant des modes dont les fréquences sont séparées de plusieurs décades- jusqu'alors impossible en temps discret, est rendue accessible
This thesis deals with identification of linear time invariant systems described by discrete-time transfer functions. For a given order, contrary to identification methods minimizing explicitly the prediction error variance, algorithms based on pseudo-linear regression produce models with a bias distribution dependent on the predictor parametrization. This has been demonstrated by the innovating concept of equivalent prediction error, a signal in general non-measurable, whose variance is effectively minimized by the pseudo-linear regression.In a second step, revisited versions of recursive algorithms are proposed (Output Error, extended least squares, and their equivalents in closed-loop), whose predictors are expressed on generalized bases of transfer functions introduced by Heuberger et al. in the 1990s and 2000s. The selection of the basis poles is equivalent to define the reproducing kernel of the Hilbert space associated to these functions, and to impose how approximation is achieved by the algorithms. A particular expression of this reproducing kernel is employed to introduce an indicator of the basis poles effect on the model fit in the frequency domain. This indicator plays a great role from a heuristic point of view.At last, a validation test in accordance with these algorithms is proposed. Its statistical properties are given. This set of algorithms provides to the user some simple tuning parameters (the basis poles) that can be selected in function of the implicit purpose assigned to the identification procedure. Obtaining reduced order models is made easier, while identification of stiff systems –impossible until now in discrete-time- becomes accessible
APA, Harvard, Vancouver, ISO, and other styles
4

Gilardet, Mathieu. "Étude d'algorithmes de restauration d'images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire." Phd thesis, Université de Pau et des Pays de l'Adour, 2013. http://tel.archives-ouvertes.fr/tel-00952964.

Full text
Abstract:
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique.
APA, Harvard, Vancouver, ISO, and other styles
5

Dormoy, Jérôme. "Un algorithme linéaire de calcul de points fixes dans les systèmes de transitions : parallélisation et études expérimentales." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10628.

Full text
Abstract:
Actuellement, le domaine de la verification est confronte au probleme de l'explosion combinatoire des systemes modelises. Les axes de recherche pour lutter contre ce probleme se portent a la fois sur la realisation d'algorithmes rapides, et sur la mise au point de techniques visant a contourner le delicat probleme de la taille de tels systemes. En ce qui concerne, les algorithmes rapides, nous presentons un algorithme de calcul de points fixes dont la complexite est lineaire. D'autre part, plusieurs approches comme par exemple la verification a la volee, ou les representations plus compactes a l'aide de diagrammes binaires de decisions, permettent d'attenuer le probleme de la taille des systemes modelises. Nous avons choisi d'explorer une nouvelle approche qui consiste a repartir le systeme sur plusieurs processeurs. Nous presentons donc egalement une etude sur la parallelisation de l'algorithme lineaire de calcul de points fixes. Pour chaque algorithme, sequentiel et parallele, et c'est un des aspects original de cette etude, nous avons effectue une importante phase d'experimentations. Cette analyse nous a permis de verifier tout d'abord que la complexite de l'implementation sequentielle etait bien conforme au modele theorique, et ensuite la pertinence de l'approche parallele.
APA, Harvard, Vancouver, ISO, and other styles
6

Dumas, Jean-Guillaume. "Algorithmes parallèles efficaces pour le calcul formel : algèbre linéaire creuse et extensions algébriques." Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00002742.

Full text
Abstract:
Depuis quelques années, l'extension de l'utilisation de l'informatique dans tous les domaines de recherche scientifique et technique se traduit par un besoin croissant de puissance de calcul. Il est donc vital d'employer les microprocesseurs en parallèle. Le problème principal que nous cherchons à résoudre dans cette thèse est le calcul d'une forme canonique de très grandes matrices creuses à coefficients entiers, la forme normale de Smith. Par "très grandes", nous entendons un million d'inconnues et un million d'équations, c'est-à-dire mille milliards de variables. De tels systèmes sont même, en général, impossibles à stocker actuellement. Cependant, nous nous intéressons à des systèmes dans lesquels beaucoup de ces variables sont identiques et valent zéro; on parle dans ce cas de système creux. Enfin, nous voulons résoudre ces systèmes de manière exacte, c'est-à-dire que nous travaillons avec des nombres entiers ou dans une structure algébrique plus petite et autorisant toutes les opérations classiques, un corps fini. La reconstruction de la solution entière à partir des solutions plus petites est ensuite relativement aisée.
APA, Harvard, Vancouver, ISO, and other styles
7

Andral, Ugo. "Algorithme d'évolution pour laser à fibre optique en régime d'impulsions courtes." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS050/document.

Full text
Abstract:
Le sujet de cette thèse se rapporte à la génération d’impulsions ultracourtes dans une cavité laser fibrée à travers l’optimisation automatique de ses paramètres par un algorithme d’évolution. L’intérêt pour cette problématique provient de la difficulté à explorer les dynamiques impulsionnelles de manière systématique dans un large domaine de paramètres expérimentaux. Nous avons montré que l’implémentation d’un algorithme d’évolution sur une cavité laser fibrée de ce type peut être réalisée, en prenant les précautions adéquates pour que cette association soit la plus efficace possible. Nous avons démontré expérimentalement pour la première fois le verrouillage de modes depuis la seule optimisation des contrôleurs de polarisation utilisant une procédure automatique d’auto-apprentissage. Nous avons démontré que la sélection du blocage de modes depuis son spectre radio-fréquence permet de sélectionner le taux de répétition desimpulsions à l’intérieur de la cavité. Ces résultats préliminaires démontrent les potentialités de notre méthode employée dans des situations de dynamique non linéaire ultrarapide de grande complexité, particulièrement sensibles aux paramètres
This thesis deals with the generation of ultrashort pulses within a fiber laser cavity through the automatic optimization of its parameters by an evolutionary algorithm. The interest of this subject comes from the difficulty to systematically explore dynamics in a large domain of experimental parameters. We have shown that it is possible to implement an evolutionary algorithm on fiber laser cavity with appropriate precautions. We have experimentally demonstrated for the first time the mode locking of a laser cavity only using the optimization of polarization controllers through an automatic and self-learning procedure. We also have demonstrated that selecting the mode locking from it radio-frequency spectrum allow to select the pulses repetition rate within the cavity. These preliminary results show the promising aspect of our method used in situations of non linear ultrafast dynamics with high complexity which are particularly sensitive to parameters
APA, Harvard, Vancouver, ISO, and other styles
8

Keraghel, Abdelkrim. "Étude adaptative et comparative des principales variantes dans l'algorithme de Karmarkar." Phd thesis, Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332749.

Full text
Abstract:
Après une description de la méthode de Karmarkar, il est montré que la valeur du pas de déplacement peut être largement améliorée. Les principales difficultés pratiques de la méthode sont discutées. Plus particulièrement, l'hypothèse de connaitre, au départ, la valeur optimale de l'objectif. Diverses extensions et variantes sont étudiées dans le but de relaxer l'hypothèse ci-dessus
APA, Harvard, Vancouver, ISO, and other styles
9

Thomé, Emmanuel. "Algorithmes de calcul de logarithmes discrets dans les corps finis." Phd thesis, Ecole Polytechnique X, 2003. http://tel.archives-ouvertes.fr/tel-00007532.

Full text
Abstract:
Le calcul de logarithmes discrets est un problème central en cryptologie. Lorsqu'un algorithme sous-exponentiel pour résoudre ce problème existe, le cryptosystème concerné n'est pas nécessairement considéré comme disqualifié, et il convient d'actualiser avec soin l'état de l'art de la cryptanalyse. Les travaux de ce mémoire s'inscrivent dans cette optique. Nous décrivons en particulier comment nous avons atteint un record de calculs de logarithmes discrets: \GFn(607).

Dans une première partie, nous exposons les différentes améliorations que nous avons apportées à l'algorithme de Coppersmith pour le calcul de logarithmes discrets en caractéristique 2. Ces améliorations ont rendu possible le record que nous avons atteint. La portée de ce calcul dépasse
le simple cadre des corps finis, à cause de l'existence de la réduction MOV d'une part, et de la récente introduction des cryptosystèmes fondés sur l'identité.

On s'intéresse plus en détail, dans une seconde partie du mémoire, au problème classique de la résolution d'un système linéaire creux défini sur un corps fini, porté aux limites de ce que la technologie (théorique et pratique) permet. Nous montrons comment une amélioration substantielle de l'algorithme de Wiedemann par blocs a rendu celui-ci compétitif pour la résolution d'un grand système linéaire creux sur \GF p.

Une partie de ce mémoire est consacrée au point de vue de l'expérimentateur, grand utilisateur de moyens de calcul, de la surcharge de travail humain que cela impose, et des constatations que cette position amène.
APA, Harvard, Vancouver, ISO, and other styles
10

Viry, Guy. "Algorithmes de factorisation des polynômes à coefficients entiers." Nancy 1, 1989. http://www.theses.fr/1989NAN10489.

Full text
Abstract:
Cette thèse présente les algorithmes classiques de factorisation des polynômes à une ou plusieurs variables. Dans le cas des polynômes à une variable, deux nouvelles méthodes sont proposées. Dans la première, on calcule un facteur linéaire modulo un nombre premier P, puis on définit un multiple de ce facteur qui divise P sur ZX. Dans la seconde méthode, le calcul des produits des facteurs de P modulo P#N est remplacé par le calcul des sommes des images de ces facteurs de P. Dans le cas des polynômes à plusieurs variables, on donne deux méthodes pour diminuer les calculs de la dernière étape de la factorisation des algorithmes classiques. On utilise une représentation polyedrale et la notion de polynômes normalisés. La dernière étape de la thèse donne une méthode pour diminuer le degré total du polynôme donné, lorsque c'est possible. Cette méthode utilise la programmation linéaire entière
APA, Harvard, Vancouver, ISO, and other styles
11

Kazamias-Moucan, Sophie. "Optimisation d'une source d'harmoniques d'ordres élevés pour l'optique non-linéaire dans l'extrême UV." Phd thesis, Ecole Polytechnique X, 2003. http://tel.archives-ouvertes.fr/tel-00008285.

Full text
Abstract:
Cette thèse présente le travail réalisé sur la source harmoniques du LOA à partir d'une chaine Titane-Saphir kHz. Cette étude s'inscrit dans la perspective d'observer des effets non linéaires dus à l'interaction d'un faisceau harmonique intense focalisé sur cible solide. Nous présentons l'étude de l'optimisation de cette source, qui permet de générer efficacement des harmoniques en limite d'absorption. Un cadre complet d'étude de ces conditions d'optimisation du point de vue théorique et expérimental est défini avec notamment une explication détaillée de l'importance de la diaphragmation du faisceau infrarouge. Nous montrons également comment la technique des algorithmes génétiques a été utilisé par le controle de la phase spectrale du laser de pompe. Nous concluons sur la focalisation des harmoniques.
APA, Harvard, Vancouver, ISO, and other styles
12

Moreira, José. "Un modèle d'approximation pour la représentation du mouvement dans les bases de données spatiales." Paris, ENST, 2001. http://www.theses.fr/2001ENST0016.

Full text
Abstract:
La gestion et l'interrogation d'objets mobiles nécessitent de prendre en compte le fait que la localisation de tels objets dans l'espace à deux (trois) dimensions est une fonction continue du temps. Deux problèmes déterminants se posent au traitement de ce type d'information: d'une part, les systèmes informatiques ne sont pas capables de stocker ou de manipuler des ensembles infinis; d'autre part, les mécanismes de repérage de la localisation des objets mobiles sont intrinsèquement discrets et ne sont pas aptes à déterminer leur localisation d'une façon continue. Ainsi, la connaissance sur le mouvement, tel qu'il est stocké dans un système de bases de données, est une représentation partielle du comportement spatio-temporel d'un objet mobile dans le monde réel. Cette thèse propose un modèle d'approximation linéaire adéquat pour la représentation finie du mouvement et son interrogation. Ce modèle d'approximation permet la définition de structures de données efficaces pour l'organisation spatio-temporelle de l'information sur le mouvement. Une structure de données appropriée au stockage du mouvement d'un objet comme un type abstrait de données et des algorithmes efficaces pour l'interrogation de ce type d' information sont donnés. Une méthode permettant de délimiter l'incertitude sur la localisation d'un objet mobile, due à la représentation partielle du mouvement, est également présentée. Du point de vue langage d'interrogation, on introduit un ensemble d'opérations à intégrer dans un SIG ou dans une base de données spatiale, pour répondre à des requêtes sur le mouvement des objets. Pour tester l'efficacité de la méthode de stockage et des algorithmes présentés, il est proposé un générateur de jeux de données qui sont à la fois riches du point de vue statistique et représentatives des applications du monde réel.
APA, Harvard, Vancouver, ISO, and other styles
13

Nguyên, Duy-Tùng. "Vérification symbolique de modèles à l'aide de systèmes de ré-écriture dédiés." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00579490.

Full text
Abstract:
Cette thèse propose un nouveau type de systèmes de ré-écriture, appelé les systèmes de réécriture fonctionnels. Nous montrons que notre modèle a la puissance d'expression des systèmes de ré-écriture et qu'il est bien adapté à l'étude de propriétés de sûreté et de propriétés de logique temporelle de modèles.Nous avons mis en évidence une sous classe de systèmes fonctionnels, les élémentaires et les élémentaires à droite, préservant la puissance d'expression des systèmes fonctionnels et des techniques d'accélération des calculs aboutissant à un outil de vérification symbolique efficace.Dans la partie expérimentale, nous avons comparé notre outil, d'une part avec des outils de ré-écriture tels que Timbuk, Maude et TOM, d'autre part avec des outils de vérification tels que SPIN, NuSMV, SMART, HSDD. Nos benchmarks démontrent l'efficacité des systèmes fonctionnels élémentaires pour la vérification de modèles.
APA, Harvard, Vancouver, ISO, and other styles
14

Khorbatly, Mohamad. "Optimisation numérique appliquée à la gestion de crise : Approche basée sur un algorithme hybride pour la résolution du problème intégré d'ordonnancement et d'allocation des ressources." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH18/document.

Full text
Abstract:
Les travaux présentes dans cette thèse s'inscrivent dans le cadre des méthodes d'évacuation des populations. Ils visent à étudier les capacités et modéliser le problème d'évacuation (blessés, sinistrés, enfants, personnes agées, etc.) dans une situation de crise (attentats terroristes, catastrophes naturelles, etc.) et développer des méthodes d'aide à la décision tout en proposant une meilleure planification et des plans optimaux d'évacuation des populations de la zone de crise vers les centres hospitaliers.Notre travail consiste à résoudre le problème d'évacuation de blessés dans des zones de crise avec une nouvelle vision qui consiste à optimiser le temps de transport et par conséquent sauver le maximum des personnes touchées par cette crise d'une façon dynamique, efficace et rapide pour minimiser la perte humaine
The work presented in this thesis is part of human evacuation methods. It aims to study the capacities, model the evacuation problem (wounded, victims, children, elderly, etc.) in a crisis situation (terrorist attacks, natural disasters, etc.) and to develops methods for decision making while proposing better planning and optimal evacuation plans for populations from the crisis zone to hospitals.Our job is to solve the wounded evacuation problem in crisis zone with a new vision that optimizes the transport time and thus saving the maximum of causalities in a dynamic, efficient and fast way in order to minimize human loss
APA, Harvard, Vancouver, ISO, and other styles
15

Dubois, Rémi. "Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies en électrocardiographie." Paris 6, 2004. https://pastel.archives-ouvertes.fr/pastel-00000571.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Delaplace, Claire. "Algorithmes d'algèbre linéaire pour la cryptographie." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S045/document.

Full text
Abstract:
Dans cette thèse, nous discutons d’aspects algorithmiques de trois différents problèmes, en lien avec la cryptographie. La première partie est consacrée à l’algèbre linéaire creuse. Nous y présentons un nouvel algorithme de pivot de Gauss pour matrices creuses à coefficients exacts, ainsi qu’une nouvelle heuristique de sélection de pivots, qui rend l’entière procédure particulièrement efficace dans certains cas. La deuxième partie porte sur une variante du problème des anniversaires, avec trois listes. Ce problème, que nous appelons problème 3XOR, consiste intuitivement à trouver trois chaînes de caractères uniformément aléatoires de longueur fixée, telles que leur XOR soit la chaîne nulle. Nous discutons des considérations pratiques qui émanent de ce problème et proposons un nouvel algorithme plus rapide à la fois en théorie et en pratique que les précédents. La troisième partie est en lien avec le problème learning with errors (LWE). Ce problème est connu pour être l’un des principaux problèmes difficiles sur lesquels repose la cryptographie à base de réseaux euclidiens. Nous introduisons d’abord un générateur pseudo-aléatoire, basé sur la variante dé-randomisée learning with rounding de LWE, dont le temps d’évaluation est comparable avec celui d’AES. Dans un second temps, nous présentons une variante de LWE sur l’anneau des entiers. Nous montrerons que dans ce cas le problème est facile à résoudre et nous proposons une application intéressante en re-visitant une attaque par canaux auxiliaires contre le schéma de signature BLISS
In this thesis, we discuss algorithmic aspects of three different problems, related to cryptography. The first part is devoted to sparse linear algebra. We present a new Gaussian elimination algorithm for sparse matrices whose coefficients are exact, along with a new pivots selection heuristic, which make the whole procedure particularly efficient in some cases. The second part treats with a variant of the Birthday Problem with three lists. This problem, which we call 3XOR problem, intuitively consists in finding three uniformly random bit-strings of fixed length, such that their XOR is the zero string. We discuss practical considerations arising from this problem, and propose a new algorithm which is faster in theory as well as in practice than previous ones. The third part is related to the learning with errors (LWE) problem. This problem is known for being one of the main hard problems on which lattice-based cryptography relies. We first introduce a pseudorandom generator, based on the de-randomised learning with rounding variant of LWE, whose running time is competitive with AES. Second, we present a variant of LWE over the ring of integers. We show that in this case the problem is easier to solve, and we propose an interesting application, revisiting a side-channel attack against the BLISS signature scheme
APA, Harvard, Vancouver, ISO, and other styles
17

Alachaher, Abderrahim. "Abd : une nouvelle loi de comportement incrémentalement non linéaire et applications par la méthode des éléments finis." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10136.

Full text
Abstract:
Ce memoire presente une etude locale et numerique du comportement mecanique des geomateriaux. La premiere partie de ce memoire presente une synthese de quelques modeles utilises dans le cadre de la description du comportement des sols. Quelques aspects lies aux schemas d'integration et au temps de calcul ont ete degages. Ensuite, nous presentons une nouvelle loi de comportement incrementalement non-lineaire de type interpolation denommee abd, caracterisee par le sens de son ecriture qui permet d'exprimer directement la reponse incrementale si la sollicitation incrementale est completement definie en termes de deformations incrementales. Nous avons valide ce nouveau modele au niveau global et incremental de la sollicitation. Nous avons montre les performances du modele en le comparant au modele incremental de darve et aux essais experimentaux. Quelques problemes inherents a la stabilite des chemins de reponse sont discutes a la fin de cette partie. La seconde partie vise a integrer le nouveau modele dans un code de calcul par elements finis sic. Un algorithme de controle et d'adaptation de l'etape de chargement en temps reel est presente. Enfin, nous presentons diverses modelisations numeriques d'essais pressiometriques. Une analyse detaillee des chemins locaux est abordee, et nous comparons aussi nos resultats avec ceux obtenus avec le code gefdyn et avec les essais experimentaux
APA, Harvard, Vancouver, ISO, and other styles
18

De, Martin Florent. "Influence du comportement non-linéaire des sols sur les mouvements sismiques forts." Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00508698.

Full text
Abstract:
Le comportement non-linéaire des sols observé lors des mouvements sismiques forts est maintenant bien établi et le déploiement des puits accélérométriques a permis des analyses détaillés de la propagation des ondes ainsi qu'une évaluation quantitative des paramètres physiques tels que la vitesse de cisaillement et de compression des ondes et les facteurs d'amortissements en fonction de la déformation. En dépit du nombre grandissant d'´etudes sur ce phénomène, sa connaissance est encore récente et les recherches sur les données de puits accélérométriques restent une étape importante vers la compréhension du comportement complexe in-situ des sédiments soumis à des mouvements sismiques forts. L'objectif de ces travaux est triple. Premièrement, un code d'inversion par algorithme génétique est développé afin d'inverser des données de puits accélérométriques via la théorie des matrices de propagation de Thomson- Haskell. Cette technique nous permet dans un premier temps de valider la structure en une dimension (1D) (e.g., vitesse des ondes de cisaillement, facteurs d' amortissements) d'un puits accélérométrique dans le domaine linéaire et dans un second temps de mettre en évidence de manière quantitative le comportement non-linéaire des sédiments lors du séisme de Fukuoka, 2005, Japon. Deuxièmement, les résultats de l'inversion sont utilisés pour tester des lois de comportement simples et avancées en utilisant la Méthode des Eléments Finis. Les résultats montrent clairement que l'hypothèse bilinéaire de la loi de comportement simple produit des séries temporelles non réalistes en vitesse et en accélération. L'utilisation d'une loi de comportement avancée mène à de meilleurs résultats, cependant, le nombre de paramètres ajustables pour obtenir des résultats consistants avec l'observation est un obstacle inévitable. Troisièmement, afin d'étendre l'étude des effets de site à des dimensions supérieures, des codes 2D et 3D de la Méthode en Eléments Spectraux sont développés et validés en comparant leurs résultats dans le domaine linéaire avec ceux obtenus théoriquement ou via d'autres méthodes numériques.
APA, Harvard, Vancouver, ISO, and other styles
19

Yassine, Adnan. "Etudes adaptatives et comparatives de certains algorithmes en optimisation : implémentations effectives et applications." Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00332782.

Full text
Abstract:
Sont étudiés: 1) l'algorithme SGGP Pour la résolution d'un programme linéaire général; 2) la méthode de pivotage de Lemke, la methode du gradient conjugue conditionnel et la methode de l'inverse partiel pour la résolution des programmes quadratiques convexes; 3) les méthodes d'approximation extérieure et les méthodes de coupes planes et les méthodes de région de confiance pour l'optimisation non convexe
APA, Harvard, Vancouver, ISO, and other styles
20

Ammanouil, Rita. "Contributions au démélange non-supervisé et non-linéaire de données hyperspectrales." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4079/document.

Full text
Abstract:
Le démélange spectral est l’un des problèmes centraux pour l’exploitation des images hyperspectrales. En raison de la faible résolution spatiale des imageurs hyperspectraux en télédetection, la surface représentée par un pixel peut contenir plusieurs matériaux. Dans ce contexte, le démélange consiste à estimer les spectres purs (les end members) ainsi que leurs fractions (les abondances) pour chaque pixel de l’image. Le but de cette thèse estde proposer de nouveaux algorithmes de démélange qui visent à améliorer l’estimation des spectres purs et des abondances. En particulier, les algorithmes de démélange proposés s’inscrivent dans le cadre du démélange non-supervisé et non-linéaire. Dans un premier temps, on propose un algorithme de démelange non-supervisé dans lequel une régularisation favorisant la parcimonie des groupes est utilisée pour identifier les spectres purs parmi les observations. Une extension de ce premier algorithme permet de prendre en compte la présence du bruit parmi les observations choisies comme étant les plus pures. Dans un second temps, les connaissances a priori des ressemblances entre les spectres à l’échelle localeet non-locale ainsi que leurs positions dans l’image sont exploitées pour construire un graphe adapté à l’image. Ce graphe est ensuite incorporé dans le problème de démélange non supervisé par le biais d’une régularisation basée sur le Laplacian du graphe. Enfin, deux algorithmes de démélange non-linéaires sont proposés dans le cas supervisé. Les modèles de mélanges non-linéaires correspondants incorporent des fonctions à valeurs vectorielles appartenant à un espace de Hilbert à noyaux reproduisants. L’intérêt de ces fonctions par rapport aux fonctions à valeurs scalaires est qu’elles permettent d’incorporer un a priori sur la ressemblance entre les différentes fonctions. En particulier, un a priori spectral, dans un premier temps, et un a priori spatial, dans un second temps, sont incorporés pour améliorer la caractérisation du mélange non-linéaire. La validation expérimentale des modèles et des algorithmes proposés sur des données synthétiques et réelles montre une amélioration des performances par rapport aux méthodes de l’état de l’art. Cette amélioration se traduit par une meilleure erreur de reconstruction des données
Spectral unmixing has been an active field of research since the earliest days of hyperspectralremote sensing. It is concerned with the case where various materials are found inthe spatial extent of a pixel, resulting in a spectrum that is a mixture of the signatures ofthose materials. Unmixing then reduces to estimating the pure spectral signatures and theircorresponding proportions in every pixel. In the hyperspectral unmixing jargon, the puresignatures are known as the endmembers and their proportions as the abundances. Thisthesis focuses on spectral unmixing of remotely sensed hyperspectral data. In particular,it is aimed at improving the accuracy of the extraction of compositional information fromhyperspectral data. This is done through the development of new unmixing techniques intwo main contexts, namely in the unsupervised and nonlinear case. In particular, we proposea new technique for blind unmixing, we incorporate spatial information in (linear and nonlinear)unmixing, and we finally propose a new nonlinear mixing model. More precisely, first,an unsupervised unmixing approach based on collaborative sparse regularization is proposedwhere the library of endmembers candidates is built from the observations themselves. Thisapproach is then extended in order to take into account the presence of noise among theendmembers candidates. Second, within the unsupervised unmixing framework, two graphbasedregularizations are used in order to incorporate prior local and nonlocal contextualinformation. Next, within a supervised nonlinear unmixing framework, a new nonlinearmixing model based on vector-valued functions in reproducing kernel Hilbert space (RKHS)is proposed. The aforementioned model allows to consider different nonlinear functions atdifferent bands, regularize the discrepancies between these functions, and account for neighboringnonlinear contributions. Finally, the vector-valued kernel framework is used in orderto promote spatial smoothness of the nonlinear part in a kernel-based nonlinear mixingmodel. Simulations on synthetic and real data show the effectiveness of all the proposedtechniques
APA, Harvard, Vancouver, ISO, and other styles
21

Hihi, Jalil. "Évaluation de méthodes d'identification de systèmes non-linéaires en régime permanent : méthode de traitement des données par groupes, identification floue." Nancy 1, 1993. http://www.theses.fr/1993NAN10013.

Full text
Abstract:
En vu de la modélisation d'un sous-système d'une machine à papier et de deux systèmes non linéaires simulés, trois approches sont expérimentées: une approche linéaire, la méthode de traitements des données par groupes (GMDH) et la logique floue. Pour l'approche linéaire, nous avons utilisé la classique régression pas à pas et un algorithme de recherche des meilleures variables explicatives (Lamotte et Hocking). La méthode de traitement des données par groupes (Ivakhnenko) fournit des résultats intéressants. Cet algorithme récursif permet d'engendrer un polynôme renfermant un grand nombre de monômes pour représenter le système modélisé. Nous proposons d'utiliser la régression pas à pas pour ne retenir que les termes les plus significatifs. La logique floue permet de représenter simplement les non-linéarités, mais les équations de relation floue, classiquement utilisées en identification, ne fournissent pas de bons résultats lorsqu'on ne fuzzifie pas correctement les variables. Nous avons développé un algorithme (Sugeno) qui intègre toutes les étapes d'une identification floue pour fournir un modèle linguistique à conclusions procédurales: détermination des variables de prémisse et des ensembles flous associés, puis calcul de la conséquence pour chacune des règles. Cet algorithme complexe fournit des modèles un peu moins précis que ceux élabores par MTDG, mais plus simples et, certainement, plus robustes
APA, Harvard, Vancouver, ISO, and other styles
22

Bitar, Abdoul. "Ordonnancement sur machines parallèles appliqué à la fabrication de semi-conducteurs : ateliers de photolithographie." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0808/document.

Full text
Abstract:
Le secteur des semi-conducteurs a connu un développement considérable ces dernières décennies, du fait des nouvelles applications de la microélectronique dans l'industrie. Le processus de fabrication est réputé pour sa complexité. L'un des ateliers les plus critiques de la production, l'atelier de photolithographie, est régi par un ensemble conséquent de contraintes de production. La multiplicité des ressources utilisées, le nombre important de produits traités, en font une zone importante à optimiser. Les objectifs de la thèse ont été de modéliser cet atelier sous la forme d'un problème d'ordonnancement sur machines parallèles et d'optimiser plusieurs critères jugés pertinents pour évaluer la qualité des solutions. Des résultats en termes de complexité, et d'algorithmes de résolution, ont permis une application industrielle, dans la mesure où un logiciel d'optimisation destiné à l'ordonnancement des lots en photolithographie a été développé
Semiconductor manufacturing has grown considerably in recent decades, due to new industrial applications of microelectronic devices. The related manufacturing process is known to be complex. A bottleneck process step, the photolithography workshop, gathers various types of constraints, related to the number of auxiliary resources and the tools characteristics. The aims of the thesis were to model this workstation as a parallel machine scheduling problem and to optimize various criteria, determined by industrial needs. Some complexity results are provided and optimization algorithms led to an industrial application, i.e. a software providing optimized schedules in a specific fab
APA, Harvard, Vancouver, ISO, and other styles
23

Épenoy, Richard. "Un algorithme parallèle pour les problèmes d'optimisation quadratique convexes de grande taille dont la structure est issue de la discrétisation de problèmes de contrôle optimal." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT052H.

Full text
Abstract:
L'objet de ce memoire est l'etude numerique d'une methode de resolution des problemes de controle optimal avec contraintes sur l'etat basee sur l'utilisation des techniques de programmation mathematique avec contraintes. L'idee de base de la methode consiste a approcher les fonctions inconnues: l'etat et la commande, par des polynomes d'interpolation et a traiter le systeme differentiel traduisant la dynamique du probleme par collocation. Le probleme de programmation mathematique resultant, qui possede une structure de contraintes en escalier, sera resolu par la methode de programmation sequentielle quadratique (s. Q. P). Nous exposerons l'implementation qui a ete faite de cet algorithme ainsi que des diagnostiques de difficultes numeriques rencontrees. Nous construirons ensuite un algorithme de decomposition parallele pour problemes d'optimisation quadratique a contraintes lineaires en escalier, problemes que l'on doit resoudre a chaque iteration de la methode s. Q. P. Pour calculer la direction de descente. Cet algorithme, base sur les methodes iteratives d'algebre lineaire, et notamment sur l'algorithme semi-iteratif de tcheybycheff, fera apparaitre le parallelisme grace a une transformation prealable (ou manipulation) du probleme a traiter. Ce parallelisme consistera en la resolution simultanee de problemes quadratiques de petite taille. Nous testerons en environnement sequentiel le comportement numerique de l'algorithme et notamment l'influence de la manipulation du probleme sur la precision des resultats, puis nous effectuerons des mesures de gains en temps de calcul en environnement parallele. Nous conclurons enfin, en donnant quelques exemples de problemes de controle optimal resolus via la methode s. Q. P.
APA, Harvard, Vancouver, ISO, and other styles
24

Desmée, Solène. "Modélisation conjointe de données longitudinales non-linéaires et de données de survie : application au cancer de la prostate métastatique." Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC115.

Full text
Abstract:
L'évaluation de traitements pour le cancer de la prostate métastatique (CPM) repose sur le temps de décès et des mesures de PSA. La modélisation conjointe analysant simultanément évolution du biomarqueur et survie est alors adaptée, mais souvent limitée à un processus longitudinal linéaire. L'objectif de cette thèse est d'étudier la modélisation conjointe quand la cinétique du biomarqueur est décrite par un modèle non-linéaire à effets mixtes (MNLEM). Nous avons montré par simulations que l'algorithme SAEM de Monolix estimait sans biais les paramètres d'un modèle conjoint non-linéaire, avec un risque de première espèce et une puissance à détecter un lien entre les processus satisfaisants. Puis nous avons développé un modèle conjoint mécanistique pour caractériser le lien entre cinétique du PSA et survie chez des patients ayant un CPM et traités par docetaxel. Le modèle structurel du MNLEM a été défini par un système d'équations différentielles (ED) décrivant le mécanisme de production du PSA par des cellules sensibles ou résistante au docetaxel. Le modèle final souligne le rôle prépondérant sur la survie des cellules résistantes, non-observées. Afin de proposer des prédictions individuelles dynamiques, une méthode bayésienne a été implémentée pour fournir la distribution des paramètres individuels. Les performances prédictives du modèle ont pu être évaluées à l'aide de métriques de discrimination et de calibration dépendant du temps. Ces travaux ouvrent la voie au développement de modèles conjoints mécanistiques, tenant compte de l'influence de plusieurs biomarqueurs sur la survie, au moyen d'ED, afin d'améliorer évaluation thérapeutique et prédiction
Treatment evaluation for metastatic Castration-Resistant Prostate Cancer (mCRPC) relies on time-to-death. Prostate-specific antigen (PSA), assumed to be linked to survival, is frequently measured. Joint modelling which consists in the simultaneous analyse of biomarker's evolution and survival is particularly adapted, but often limited to linear longitudinal process. The objective of this PhD is to study joint modelling when biomarker kinetics is described by a nonlinear mixed-effects model (NLMEM). We established by simulations that the SAEM algorithm of Monolix provided unbiased parameter estimations of a nonlinear joint model, with satisfying type 1 error and power to detect a link between the processes. Then we developed a mechanistic joint model to characterize the relationship between PSA kinetics and survival in mCRPC patients treated by docetaxel. The structural model of the NLMEM was defined by a system of differential equations (DE) describing the mechanism of PSA production by docetaxel-sensitive and -resistant cells. Model selection and evaluation were detailed. The final model showed the predominant role of the non-observed resistant cells on survival. Lastly we expanded tools developed in a linear context for individual dynamic prediction using nonlinear joint model. A Bayesian method provided the distribution of individual parameters. Predictive performances of the model were assessed using time-dependent discrimination and calibration metrics. These works open the way for the development of mechanistic joint models, which enable to account for the impact of several biomarkers on survival through DE, in order to improve therapeutic evaluation and prediction
APA, Harvard, Vancouver, ISO, and other styles
25

Dubois, R. "Application des nouvelles méthodes d'apprentissage à la détection précoce d'anomalies cardiaques en électrocardiographie." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://pastel.archives-ouvertes.fr/pastel-00000571.

Full text
Abstract:
L'enregistrement Holter (enregistrement électrocardiographique de 24 heures) est un examen très fréquemment utilisé en cardiologie. Parmi les 100 000 battements enregistrés, seul un petit nombre d'entre eux peut traduire la présence d'une pathologie sous-jacente; l'analyse automatique est donc indispensable. Les outils actuels fonctionnent sur le principe d'un système expert, robuste, mais peu adaptatif et essentiellement limité à la détection et la classification des signaux de dépolarisation ventriculaire. Une analyse plus détaillée des signaux cardiaques permet une bien meilleure détection de nombreuses pathologies, en particulier grâce à l'extraction des signaux d'origine auriculaire et des ondes de repolarisation. Nous proposons dans cette thèse une méthode de décomposition mathématique originale des battements cardiaques sur une base de fonctions appelées "bosses". Contrairement aux régresseurs classiques utilisés en modélisation (ondelettes, RBF...), les bosses sont des fonctions prévues pour modéliser chaque onde caractéristique du battement cardiaque (les ondes P, Q, R, S et T). Chaque battement de l'enregistrement est ainsi décomposé en bosses; puis les labels médicaux P, Q, R, S et T leur sont attribués par des classifieurs (réseaux de neurones). Disposant alors de l'emplacement et de la forme des toutes les ondes caractéristiques pour l'ensemble de l'ECG, nous pouvons désormais repérer automatiquement des anomalies comme l'inversion de l'onde P, jusqu'alors non détectées par les algorithmes sur les enregistrements de longues durées. Cette approche a été testée sur de nombreuses bases de données et a montré toute son efficacité par rapport aux méthodes actuelles dem détection d'anomalies
APA, Harvard, Vancouver, ISO, and other styles
26

Delmée, Quentin. "Résolution exacte de problèmes de localisation de services bi-objectifs en variables mixtes." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4055/document.

Full text
Abstract:
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes de localisation de service en variables mixtes. Les problèmes de programmation linéaire bi-objectif en variables mixtes ont été très étudiés dans les dernières années, mais uniquement dans un contexte générique. De même, les problèmes de localisation de services bi-objectif n’ont été étudiés que dans un cas purement discret. Nous considérons dans un premier temps le problème de localisation de services bi-objectif sans capacité. Afin de le résoudre, nous adaptons la méthode de pavage par boîtes proposée pour le cas discret. Les boîtes rectangulaires deviennent triangulaires dans le cas mixte. De plus, leur exploration est grandement facilitée, ce qui déplace la difficulté du problème dans l’énumération et le filtrage de ces boîtes. Différentes stratégies d’énumération sont proposées. Le problème de localisation de services bi-objectif avec capacité est ensuite considéré. Tout d’abord, une adaptation de la méthode de pavage par boîtes triangulaires est réalisée pour le cas avec capacité. Cependant, la nature du problème rend cette méthode beaucoup plus limitée. Nous considérons ensuite une méthode en deux phases dont la principale routine d’exploration repose sur une adaptation d’un algorithme de branch and bound initialement proposé par Beasley, dans le contexte bi-objectif. Les résultats expérimentaux sur des instances aux caractéristiques variées attestent de la pertinence des méthodes que nous proposons
The purpose of this work is the exact solution of biobjective mixed-integer facility location problems. Biobjective mixed integer linear programming problem have been largely studied in recent years but only in the generic context. The same way, the study of biobjective facility location problems has been restricted to the discrete case. We consider first the bi-objective uncapacitated facility location problem. To solve it, we adapt the box paving method proposed for the discrete case. Rectangular boxes become triangular. Moreover, their exploration becomes considerably easier. The difficulty of the problem is therefore translated to the enumeration and the filtering of these boxes. Different enumeration strategies are proposed. Next, we consider the bi-objective capacitated facility location problem. We first propose an adaptation of the triangular box paving method to the capacitated case. However, the structure of the problem highly limits the method. Thus, we consider a two phase method. The main exploration routine is based on the adaptation of a branch and bound algorithm proposed by Beasley that we adapt to the bi-objective context. Experimental results on various instances show the efficiency of the proposed methods
APA, Harvard, Vancouver, ISO, and other styles
27

Chaubert-Pereira, Florence. "Combinaisons markoviennes et semi-markoviennes de modèles de régression. Application à la croissance d'arbres forestiers." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00341822.

Full text
Abstract:
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i.e. des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives synchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles.
APA, Harvard, Vancouver, ISO, and other styles
28

Alame, Ibrahim. "Application de la géométrie différentielle des groupes de Lie à la dynamique non linéaire des milieux curvilignes." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1992. http://pastel.archives-ouvertes.fr/pastel-00568707.

Full text
Abstract:
L'objectif de cette thèse est l'étude du comportement dynamique des milieux curvilignes, en grands déplacements. Ce qui introduit une source de non linéarité géométrique qui se manifeste dans le terme d'inertie ainsi que dans le terme de rigidité. Le milieu curviligne considéré est modélisé par une suite continue de sections rigides liées par des milieux élastiques de masse nulle. On n'introduit aucune hypothèse simplificatrice dans la description des efforts intérieurs. Dans le modèle proposé, nous pouvons introduire une loi de comportement élastique non linéaire ce qui rajoute une deuxième source de non linéarité. On utilise ici comme outil fondamental le formalisme de la géométrie différentielle des groupes de Lie, ceci permet une écriture simple et condensée des équations de la dynamique et facilite leur traitement numérique. Les équations sont résolues par un algorithme numérique élaboré dans le même formalisme, ce qui évite l'utilisation "lourde" des paramètres de coordonnées. Enfin, les résultats obtenus sont appliqués à deux exemples concrets : le premier d'origine industrielle concerne le comportement du faisceau de câbles robotiques, le deuxième issu du Génie parasismique traite du comportement dynamique de grands bâtiments.
APA, Harvard, Vancouver, ISO, and other styles
29

Benaini, Abdelhamid. "Conception et validation des algorithmes systoliques." Phd thesis, Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00329564.

Full text
Abstract:
Proposition d'une formulation combinatoire pour la conception d'algorithmes de produit matriciel sur les réseaux systoliques linéaires. Étude de la validation des algorithmes systoliques. Deux logiciels sont proposes: le premier, Sisyc, est un simulateur numérique d'algorithmes systoliques; le second, sisyc2, calcule la trace symbolique des algorithmes systoliques et permet lorsqu'il est couple avec un système de calcul formel, de réaliser une simulation formelle
APA, Harvard, Vancouver, ISO, and other styles
30

Weymann, Jacques. "Commande du trafic par guidage des véhicules avec prise en compte du comportement humain et de la saturation." Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0010.

Full text
Abstract:
Ce mémoire de thèse propose des algorithmes de guidage dynamique des véhicules, en particulier dans le cas de situation de trafic saturée et lorsque certains conducteurs guidés désobéissent aux consignes de guidage. Le problème traité ici suppose que les véhicules guidés sont nombreux et que l'influence du guidage n'est pas négligeable sur la situation du trafic. Par conséquent, les méthodes efficaces de guidage répartissent les véhicules guidés sur plusieurs chemins entre une origine et une destination du réseau. Un première partie décrit et compare ces méthodes tout en montrant leurs limites. Une deuxième partie présente un guidage basé sur un modèle dépendant des débits. Un comparaison de plusieurs critères basés sur le temps est effectuée. L'utilisation dans la suite du mémoire du critère qui minimise le temps total des véhicules guidés dans le réseau est alors hustifiée. Pour ce même modèle, plusieurs types de désobéissance des conducteurs sont introduits. Cette amélioration du modèle se traduit par des contraintes supplémentaires sur les débits. L'optimisation statique est réalisée par une méthode de charge récursive basée sur le simplexe. Lorsque la désobéissance est introduite, il est plus difficile de trouver une solution optimale non saturée, ce qui accentue le défaut de ce modèle qui ne prend pas en compte la saturation. La troisième partie décrit alors un guidage basé sur la commande optimale, dont le modèle de trafic prend en compte la saturation. A cause de la désobéissance, la proportion réelle de conducteurs obéissant à une consigne de guidage est linéaire par rapport à la commande. De plus, les résultats utilisant la programmation dynamique montrent que les dégradations du critère sont importantes en situation saturée. Deux optimisations basées sur la technique du gradient et valables pour les réseaux complexes sont comparées et montrent la difficulté de mettre en oeuvre ce modèle. Une quatrième partie donne alors un nouveau modèle basé sur les files d'attente et les débits, qui pallie aux défauts des deux modèles précédents. Le temps de parcours est calculé analytiquement et donne un critère non strictement convexe. Trois méthodes d'optimisation sont comparées, l'algorithme utilisant un simplexe récursivement, un algorithme de Franke-Wolfe et une méthode décentralisée. Les résultats montrent que la méthode de Franke-Wolfe est plus efficace qu'un simplexe utilisé récursivement. Les gains sont importants pour les véhicules guidés et peuvent atteindre 62 % pour un réseau simple et 18 % pour un réseau complexe.
APA, Harvard, Vancouver, ISO, and other styles
31

Ben, Atti Nadia. "Calcul rapide sur les matrices structurées : Les matrices de Hankel." Phd thesis, Université de Franche-Comté, 2008. http://tel.archives-ouvertes.fr/tel-00477090.

Full text
Abstract:
Cette thèse présente une contribution à l'amélioration de certains résultats concernant les algorithmes en Algèbre linéaire et plus particulièrement les algorithmes sur les matrices structurées. Nous présentons un nouvel algorithme de diagonalisation par blocs des matrices de Hankel, particulièrement efficace. Dans le cas où la matrice de Hankel correspond à une suite récurrente linéaire, nous retrouvons ainsi l'algorithme de Berlekamp-Massey, mais dans une version simplifiée (plus facile à expliquer et à programmer) et accélérée par des troncatures. En outre notre version permet une gestion dynamique des données. Notre diagonalisation par blocs, qui s'applique sur un corps arbitraire, nous permet de donner une démonstration purement algébrique et simple d'un délicat théorème de Frobenius pour la signature d'une forme de Hankel réelle. Nous donnons également une étude approfondie de l'algorithme d'Euclide signé et de ses versions matricielles pour les matrices de Hankel et de Bezout associées à un couple de polynômes. Nous expliquons les rapports existants entre différents algorithmes connus dans la littérature.
APA, Harvard, Vancouver, ISO, and other styles
32

Stawiaski, Jean. "Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004807.

Full text
Abstract:
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.
APA, Harvard, Vancouver, ISO, and other styles
33

Eisenbeis, Christine. "Optimisation automatique de programmes sur "Array-Processors"." Paris 6, 1986. http://www.theses.fr/1986PA066181.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Zhang, Yi. "Analyse et dimensionnement d'ouvrages de protection contre les chutes de blocs." Phd thesis, Ecole des Ponts ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002076.

Full text
Abstract:
Le Pare-blocs Structurellement Dissipant (PSD) est un type de galerie pare-blocs innovant. Il se compose d'une dalle en béton armé reposant sur des appuis fusibles métalliques. Contrairement aux galeries pare-blocs traditionnelles, le PSD utilise directement le mouvement de la dalle, et la déformation de la dalle et des appuis, pour dissiper l'énergie d'impact de blocs rocheux. Le but de cette thèse est de contribuer à améliorer l'analyse et le dimensionnement du PSD sous les impacts rocheux. L'analyse structurelle du PSD nécessite des analyses d'impact appropriées. Un algorithme d'impact est donc développé, qui permet de traiter les impacts unilatéraux entre un projectile rigide et une structure déformable. Cet algorithme est ensuite mis en œuvre dans un code de calculs par éléments finis. Validé par plusieurs tests, ce développement fournit un outil de calcul pour le PSD permettant de prendre en compte les effets de vitesse du comportement des matériaux. Cet outil est utilisé pour modéliser le PSD sous différentes conditions d'impact. D'abord, les essais d'impact sur une maquette PSD à l'échelle 1/3 sont modélisés pour connaître la faisabilité de la modélisation structurelle. Une corrélation satisfaisante entre les résultats numériques et expérimentaux permet de réaliser plusieurs séries d'études paramétriques avec le même modèle aux éléments finis pour mettre en évidence l'influence de la masse et de la vitesse des blocs rocheux, de la position de point d'impact sur la dalle, de l'épaisseur de la dalle, du type de béton et du pourcentage d'armatures de la dalle. Enfin, des calculs à l'échelle de la structure sont effectués. Toutes ces études montrent la robustesse du concept PSD, ainsi que ses optimisations possibles, particulièrement pour améliorer sa résistance vis-à-vis du poinçonnement.
APA, Harvard, Vancouver, ISO, and other styles
35

Mencarelli, Luca. "The Multiplicative Weights Update Algorithm for Mixed Integer NonLinear Programming : Theory, Applications, and Limitations." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLX099/document.

Full text
Abstract:
L'objectif de cette thèse consiste à présenter un nouvel algorithme pour la programmation non linéaire en nombres entiers, inspirée par la méthode Multiplicative Weights Update et qui compte sur une nouvelle classe de reformulations, appelées les reformulations ponctuelles.La programmation non linéaire en nombres entiers est un sujet très difficile et fascinant dans le domaine de l'optimisation mathématique à la fois d'un point de vue théorique et computationnel. Il est possible de formuler de nombreux problèmes dans ce schéma général et, habituellement, ils posent de réels défis en termes d'efficacité et de précision de la solution obtenue quant aux procédures de résolution.La thèse est divisée en trois parties principales : une introduction composée par le Chapitre 1, une définition théorique du nouvel algorithme dans le Chapitre 2 et l'application de cette nouvelle méthodologie à deux problèmes concrets d'optimisation, tels que la sélection optimale du portefeuille avec le critère moyenne-variance dans le Chapitre 3 et le problème du sac à dos non linéaire dans le Chapitre 4. Conclusions et questions ouvertes sont présentées dans le Chapitre 5
This thesis presents a new algorithm for Mixed Integer NonLinear Programming, inspired by the Multiplicative Weights Update framework and relying on a new class of reformulations, called the pointwise reformulations.Mixed Integer NonLinear Programming is a hard and fascinating topic in Mathematical Optimization both from a theoretical and a computational viewpoint. Many real-word problems can be cast this general scheme and, usually, are quite challenging in terms of efficiency and solution accuracy with respect to the solving procedures.The thesis is divided in three main parts: a foreword consisting in Chapter 1, a theoretical foundation of the new algorithm in Chapter 2, and the application of this new methodology to two real-world optimization problems, namely the Mean-Variance Portfolio Selection in Chapter 3, and the Multiple NonLinear Separable Knapsack Problem in Chapter 4. Conclusions and open questions are drawn in Chapter 5
APA, Harvard, Vancouver, ISO, and other styles
36

Gay, Jean-Christophe. "Résolution du problème du p-médian, application à la restructuration de bases de données semi-structurées." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00720204.

Full text
Abstract:
Les problèmes que nous considérons dans cette thèse sont de nature combinatoire. Notre principal intérêt est le problème de restructuration de données semi-structurées. Par exemple des données stockées sous la forme d'un fichier XML sont des données semi-structurées. Ce problème peut être ramené à une instance du problème du p-médian. Le principal obstacle ici est la taille des instances qui peut devenir très grande. Certaines instances peuvent avoir jusqu'à 10000 ou 20000 sommets, ce qui implique plusieurs centaines de millions de variables. Pour ces instances, résoudre ne serait-ce que la relaxation linéaire du problème est très difficile. Lors d'expériences préliminaires nous nous sommes rendu compte que CPLEX peut résoudre des instances avec 1000 sommets dans des temps raisonnables. Mais pour des instances de 5000 sommets, il peut prendre jusqu'à 14 jours pour résoudre uniquement la relaxation linéaire. Pour ces raisons nous ne pouvons utiliser de méthodes qui considère la résolution de la relaxation linéaire comme une opération de base, comme par exemple les méthodes de coupes et de branchements. Au lieu d'utiliser CPLEX nous utilisons une implémentation parallèle (utilisant 32 processeurs) de l'algorithme du Volume. L'instance pour laquelle CPLEX demande 14 heures est résolue en 24 minutes par l'implémentation séquentielle et en 10 minutes par l'implémentation parallèle de l'algorithme du Volume. La solution de la relaxation linéaire est utilisée pour construire une solution réalisable, grâce à l'application d'une heuristique de construction gloutonne puis d'une recherche locale. Nous obtenons des résultats comparables aux résultats obtenus par les meilleures heuristiques connues à ce jour, qui utilisent beaucoup plus de mémoire et réalisent beaucoup plus d'opérations. La mémoire est importante dans notre cas, puisque nous travaillons sur des données de très grandes tailles. Nous étudions le dominant du polytope associé au problème du p-médian. Nous discutons de sa relaxation linéaire ainsi que de sa caractérisation polyédrale. Enfin, nous considérons une version plus réaliste du problème de restructuration de données semi-structurées. Grosso modo, nous ajoutons au problème du p-médian original des nouveaux sommets s'ils aident à réduire le coût global des affectations.
APA, Harvard, Vancouver, ISO, and other styles
37

Nuel, Gavaldà Xavier. "Application d’algorithmes génétiques multi-objectifs et études expérimentales de la durée de vie du faisceau de l’anneau de stockage du synchrotron SOLEIL." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS205/document.

Full text
Abstract:
Cette thèse est consacrée à l’optimisation des sources de lumière synchrotron. La dynamique de faisceau non linéaire de l'anneau de stockage du synchrotron SOLEIL est optimisée à l’aide d’algorithmes génétiques multiobjectifs (MOGA-ELEGANT). Le code ELEGANT est d’abord comparé avec le code étalon de SOLEIL, TRACY3. Le code MOGA est ensuite utilisé pour obtenir les meilleures configurations possible en termes d’ouvertures dynamiques et d’acceptances en énergie, qui sont fortement en rapport avec la durée de vie Touschek et l'efficacité d'injection respecti-vement. Après 1 mois de calcul sur le cluster de calcul de haute performance de SOLEIL en utilisant 200 CPU, un ensemble de solutions est trouvé. Elles sont testées expérimentalement dans la salle de contrôle du SOLEIL. L'amélioration de la durée de vie Touschek obtenue est confirmée par les mesures : la durée de vie du faisceau de l'anneau de stockage de SOLEIL est accrue de 50 à 60%. La deuxième partie de ce travail de thèse présente une étude expérimentale de la durée de vie du faisceau de l'anneau de stockage de SOLEIL. En particulier les contributions de la durée de vie Touschek et la durée de vie de gaz sont étudiées. La durée de vie du faisceau est mesurée en fonction de paramètres importants tels que le couplage, racleurs horizontaux et verticaux, et le courant. Les résultats expérimentaux sont comparés avec les durées de vie Touschek calculées par la formule Piwinski mise en œuvre dans le code TRACY3 et la durée de vie du gaz calculée analytiquement. Cette étude permet de montrer que la composition du gaz résiduel et la pression locale varient de manière importante le long de toute la machine: l’effet des ondulateurs sous-vide est dominant. Des nombres atomiques effectifs sont obtenus. La forme des courbes expérimentales est proche des courbes simulées et est compatible avec un nombre atomique effectif proche de 7
This thesis is dedicated to the optimization of the nonlinear beam dynamics of synchrotron radiation light sources using Multi-objective Genetic Algorithms (MOGA-ELEGANT). In the first part the ELEGANT code is benchmarked against TRACY3; then MOGA is tuned and used to find the best settings of quadrupole and sextupole magnets in order to maximize the dynamic and momentum apertures, strongly related with the Touschek lifetime and the injection efficiency respectively. Solutions obtained after one month of computation in the high level computational cluster of SOLEIL using 200 CPUs are analyzed. The improvement of the Touschek lifetime obtained with MOGA is confirmed by the beam-based experiments. The beam lifetime of the SOLEIL storage ring is increased 50-60 % .The second part this PhD work is devoted to study experimentally the beam lifetime of the SOLEIL storage ring to improve the understanding of the beam lifetime and its contributions: the Touschek and gas lifetimes. The beam lifetime is measured in function of important parameters as coupling, horizontal and vertical scrapers, and bunch current. The experimental results are compared with the simulated ones. The Piwinski formula is implemented in the tracking code TRACY3 to replace Bruck approximation. The gas lifetimes were computed using analytical models. This study allows understanding that the composition of the residual gas and the local pressure along all the machine vary significantly between the arcs and the in-vacuum insertion devices: new effective atomic number are obtained. This type of measurement remains difficult to analyze without a large error margin; in-vacuum insertions have a dominant contribution. The shape of the experimental curves is closed to the expected ones and compatible with an effective atomic number of about 7
APA, Harvard, Vancouver, ISO, and other styles
38

Absi, Nabil. "Modélisation et résolution de problèmes de lot-sizing à capacité finie." Paris 6, 2005. http://www.theses.fr/2005PA066563.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Nabil, Tahar. "Identification de modèle thermique de bâtiment dans un environnement d'objets connectés." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0001.

Full text
Abstract:
Cette thèse s’intéresse au problème de l’identification de modèle thermique d’un bâtiment intelligent, dont les objets connectés pallient la non-mesure des grandeurs physiques d’intérêt. Un premier algorithme traite de l’estimation boucle ouverte du système de bâtiment exploité en boucle fermée. Cet algorithme est ensuite modifié pour intégrer l’incertitude de mesure des données. Nous suggérons ainsi une méthode en boucle fermée, non-intrusive car s’affranchissant de la nécessité de mesurer la température intérieure. Puis, nous revenons à des approches en boucle ouverte. Les différents algorithmes permettent respectivement de réduire le biais contenu dans la mesure de température extérieure par une sonde connectée, de remplacer le coûteux capteur de flux solaire par un capteur de température extérieure, et enfin d’utiliser la courbe de charge totale, et non désagrégée, en tirant profit de signaux On/Off des objets connectés
This thesis is devoted to the problem of the identification of a thermal model of a smart building, whose connected objects alleviate the lack of measurements of the physical quantities of interest. The first algorithm deals with the estimation of the open-loop building system, despite its actual exploitation in closed loop. This algorithm is then modified to account for the uncertainty of the data. We suggest a closedloop estimation of the building system as soon as the indoor temperature is not measured. Then, we return to open-loop approaches. The different algorithms enable respectively to reduce the possible bias contained in a connected outdoor air temperature sensor, to replace the costly solar flux sensor by another connected temperature sensor, and finally to directly use the total load curve, without disaggregation, by making the most of the On/Off signals of the connected objects
APA, Harvard, Vancouver, ISO, and other styles
40

Le, Trung-Dung. "Gestion de masses de données dans une fédération de nuages informatiques." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S101.

Full text
Abstract:
Les fédérations de nuages informatiques peuvent être considérées comme une avancée majeure dans l’informatique en nuage, en particulier dans le domaine médical. En effet, le partage de données médicales améliorerait la qualité des soins. La fédération de ressources permettrait d'accéder à toutes les informations, même sur une personne mobile, avec des données hospitalières distribuées sur plusieurs sites. En outre, cela permettrait d’envisager de plus grands volumes de données sur plus de patients et ainsi de fournir des statistiques plus fines. Les données médicales sont généralement conformes à la norme DICOM (Digital Imaging and Communications in Medicine). Les fichiers DICOM peuvent être stockés sur différentes plates-formes, telles qu’Amazon, Microsoft, Google Cloud, etc. La gestion des fichiers, y compris le partage et le traitement, sur ces plates-formes, suit un modèle de paiement à l’utilisation, selon des modèles de prix distincts et en s’appuyant sur divers systèmes de gestion de données (systèmes de gestion de données relationnelles ou SGBD ou systèmes NoSQL). En outre, les données DICOM peuvent être structurées en lignes ou colonnes ou selon une approche hybride (ligne-colonne). En conséquence, la gestion des données médicales dans des fédérations de nuages soulève des problèmes d’optimisation multi-objectifs (MOOP - Multi-Objective Optimization Problems) pour (1) le traitement des requêtes et (2) le stockage des données, selon les préférences des utilisateurs, telles que le temps de réponse, le coût monétaire, la qualités, etc. Ces problèmes sont complexes à traiter en raison de la variabilité de l’environnement (liée à la virtualisation, aux communications à grande échelle, etc.). Pour résoudre ces problèmes, nous proposons MIDAS (MedIcal system on clouD federAtionS), un système médical sur les fédérations de groupes. Premièrement, MIDAS étend IReS, une plate-forme open source pour la gestion de flux de travaux d’analyse sur des environnements avec différents systèmes de gestion de bases de données. Deuxièmement, nous proposons un algorithme d’estimation des valeurs de coût dans une fédération de nuages, appelé Algorithme de régression %multiple linéaire dynamique (DREAM). Cette approche permet de s’adapter à la variabilité de l'environnement en modifiant la taille des données à des fins de formation et de test, et d'éviter d'utiliser des informations expirées sur les systèmes. Troisièmement, l’algorithme génétique de tri non dominé à base de grilles (NSGA-G) est proposé pour résoudre des problèmes d’optimisation multi-crtières en présence d’espaces de candidats de grande taille. NSGA-G vise à trouver une solution optimale approximative, tout en améliorant la qualité du font de Pareto. En plus du traitement des requêtes, nous proposons d'utiliser NSGA-G pour trouver une solution optimale approximative à la configuration de données DICOM. Nous fournissons des évaluations expérimentales pour valider DREAM, NSGA-G avec divers problèmes de test et jeux de données. DREAM est comparé à d'autres algorithmes d'apprentissage automatique en fournissant des coûts estimés précis. La qualité de la NSGA-G est comparée à celle des autres algorithmes NSGA présentant de nombreux problèmes dans le cadre du MOEA. Un jeu de données DICOM est également expérimenté avec NSGA-G pour trouver des solutions optimales. Les résultats expérimentaux montrent les qualités de nos solutions en termes d'estimation et d'optimisation de problèmes multi-objectifs dans une fédération de nuages
Cloud federations can be seen as major progress in cloud computing, in particular in the medical domain. Indeed, sharing medical data would improve healthcare. Federating resources makes it possible to access any information even on a mobile person with distributed hospital data on several sites. Besides, it enables us to consider larger volumes of data on more patients and thus provide finer statistics. Medical data usually conform to the Digital Imaging and Communications in Medicine (DICOM) standard. DICOM files can be stored on different platforms, such as Amazon, Microsoft, Google Cloud, etc. The management of the files, including sharing and processing, on such platforms, follows the pay-as-you-go model, according to distinct pricing models and relying on various systems (Relational Data Management Systems or DBMSs or NoSQL systems). In addition, DICOM data can be structured following traditional (row or column) or hybrid (row-column) data storages. As a consequence, medical data management in cloud federations raises Multi-Objective Optimization Problems (MOOPs) for (1) query processing and (2) data storage, according to users preferences, related to various measures, such as response time, monetary cost, qualities, etc. These problems are complex to address because of heterogeneous database engines, the variability (due to virtualization, large-scale communications, etc.) and high computational complexity of a cloud federation. To solve these problems, we propose a MedIcal system on clouD federAtionS (MIDAS). First, MIDAS extends IReS, an open source platform for complex analytics workflows executed over multi-engine environments, to solve MOOP in the heterogeneous database engines. Second, we propose an algorithm for estimating of cost values in a cloud environment, called Dynamic REgression AlgorithM (DREAM). This approach adapts the variability of cloud environment by changing the size of data for training and testing process to avoid using the expire information of systems. Third, Non-dominated Sorting Genetic Algorithm based ob Grid partitioning (NSGA-G) is proposed to solve the problem of MOOP is that the candidate space is large. NSGA-G aims to find an approximate optimal solution, while improving the quality of the optimal Pareto set of MOOP. In addition to query processing, we propose to use NSGA-G to find an approximate optimal solution for DICOM data configuration. We provide experimental evaluations to validate DREAM, NSGA-G with various test problem and dataset. DREAM is compared with other machine learning algorithms in providing accurate estimated costs. The quality of NSGA-G is compared to other NSGAs with many problems in MOEA framework. The DICOM dataset is also experimented with NSGA-G to find optimal solutions. Experimental results show the good qualities of our solutions in estimating and optimizing Multi-Objective Problem in a cloud federation
APA, Harvard, Vancouver, ISO, and other styles
41

Escoda, Julie. "Modélisation morphologique et micromécanique 3D de matériaux cimentaires." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00741312.

Full text
Abstract:
Cette thèse porte sur la modélisation morphologique de matériaux cimentaires, et sur l'analyse de leurs propriétés linéaires élastiques. Dans cet objectif, des images 3D, obtenues par micro-tomographie, de matériaux cimentaires (mortier et béton) sont étudiées. Dans un premier temps, l'image de mortier est segmentée afin d'obtenir une image de microstructure réelle pour des calculs en élasticité linéaire. L'image de béton est utilisée, après traitement, pour la détermination des caractéristiques morphologiques du matériau. Un modèle aléatoire de béton est ensuite développé et validé par des données morphologiques. Ce modèle comporte trois phases qui correspondent à la matrice, les granulats et les pores. La phase des granulats est modélisée par implantation sans recouvrement de polyèdres de Poisson. Pour cela, un algorithme de génération vectorielle de polyèdres de Poisson est mis en place et validé par des mesures morphologiques. Enfin, les propriétés linéaires élastiques effectives de la microstructure de mortier et de microstructures simulées sont déterminées par méthode FFT (Fast-Fourier Transform), pour différents contrastes entre le module de Young des granulats et de la matrice. Cette étude des propriétés effectives est complétée par une analyse locale des champs dans la matrice, afin de déterminer l'arrangement spatial entre les zones de concentration de contraintes dans la matrice, et les différentes phases de la microstructure (granulats et pores). Une caractérisation statistique des champs est de plus réalisée, avec notamment le calcul du Volume Élémentaire Représentatif (VER). Une comparaison des propriétés élastiques effectives et locales obtenues d'une part sur une microstructure simulée contenant des polyèdres et d'autre part sur une microstructure contenant des sphères est de plus effectuée.
APA, Harvard, Vancouver, ISO, and other styles
42

Bouchitte, Vincent. "Propriétés algorithmiques des extensions linéaires." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 1987. http://tel.archives-ouvertes.fr/tel-00817371.

Full text
Abstract:
Nous étudions le comportement des extensions linéaires au travers de deux invariants de comparabilité: le nombre de sauts et la dimension. La reconnaissance des ordres de Dilworth est montrée comme étant NP-complète, nous donnons des algorithmes polynomiaux pour résoudre ce problème sur deux sous-classes. Nous définissons les notions de dimension gloutonne et dimension dfgloutonne et étudions les cas d'égalité avec la dimension classique. Nous montrons la relation très étroite entre les extensions linéaires dfgloutonnes et les parcours en profondeur. Deux problèmes concernant les extensions linéaires dfgloutonnes sont montrés comme étant NP-difficiles.
APA, Harvard, Vancouver, ISO, and other styles
43

de, Martin Florent. "Influence of the nonlinear behaviour of soft soils on strong ground motions." Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00534807.

Full text
Abstract:
Le comportement nonlinéaire des sols observé lors des mouvements sismiques forts est maintenant bien admis et le déploiement des puits accélérométriques a permis des analyses détaillées de la propagation des ondes ainsi qu'une évaluation quantitative des paramètres physiques tels que la vitesse de cisaillement et de compression des ondes et les facteurs d'amortissements en fonction de la déformation. En dépit du nombre grandissant d'études sur ce phénomène, sa connaissance est encore récente et les recherches sur les données de puits accélérométriques restent une étape importante vers la compréhension du comportement complexe in-situ des sédiments soumis à des mouvements sismiques forts.L'objectif de ces travaux est triple. Premièrement, un code d'inversion par algorithme génétique est développé afin d'inverser des données de puits accélérométriques via la théorie des matrices de propagation de Thomson-Haskell. Cette technique nous permet dans un premier temps de valider la structure en une dimension (1D) (e.g., vitesse des ondes de cisaillement, facteurs d' amortissements) d'un puits accélérométrique dans le domaine linéaire et dans un second temps de mettre en évidence de manière quantitative le comportement nonlinéaire des sédiments lors du séisme de Fukuoka, 2005, Japon. Deuxièmement, les résultats de l'inversion sont utilisés pour tester des lois de comportement simples et avancées en utilisant la Méthode des éléments Finis. Les résultats montrent clairement que l'hypothèse bi-linéaire de la loi de comportement simple produit des séries temporelles non réalistes en vitesse et en accélération. L'utilisation d'une loi de comportement avancée mène à de meilleurs résultats, cependant, le nombre de paramètres ajustables pour obtenir des résultats consistants avec l'observation est un obstable inévitable. Troisièmement, afin d'étendre l'étude des effets de site à des dimensions supérieures, des codes 2D et 3D de la Méthode en éléments Spectraux sont développés et validés en comparant leurs résultats dans le domaine linéaire avec ceux obtenus théoriquement ou via d'autres méthodes numériques.
APA, Harvard, Vancouver, ISO, and other styles
44

Goursolle, Thomas. "Propriétés acoustiques non linéaires classiques et non classiques : Applications au contrôle de santé des matériaux de l'industrie aéronautique." Phd thesis, Université François Rabelais - Tours, 2007. http://tel.archives-ouvertes.fr/tel-00262426.

Full text
Abstract:
Dans le cadre du projet européen AERONEWS pour le développement de méthodes de Contrôle Non Destructif, des structures aéronautiques complexes fissurées sont analysées par spectroscopie ultrasonore d'ondes élastiques des propriétés non linéaires classique et non classique. Le coefficient non linéaire est mesuré dans des échantillons homogènes bi-couches par modulation de phase calibrée en contact. Une approche phénoménologique du comportement hystérétique d'un matériau fissuré est réalisée avec l'espace de Preizach-Mayergoysz. Un algorithme numérique pseudo-spectral 3D, utilisant les notations de Kelvin, valide les méthodes de localisation de défaut, NEWS-TR et TR-NEWS, combinant le retournement temporel acoustique avec le traitement non linéaire des signaux. La signature non linéaire est extraite avec l'inversion d'impulsion ultrasonore. Une instrumentation est créée pour adapter expérimentalement ces méthodes de détection de défaut.
APA, Harvard, Vancouver, ISO, and other styles
45

Langou, Julien. "Résolution de systèmes linéaires de grande taille avec plusieurs seconds membres." Toulouse, INSA, 2003. http://www.theses.fr/2003ISAT0010.

Full text
Abstract:
Le point de départ de cette thèse est un problème posé par le groupe électromagnétisme de EADS-CCR : comment résoudre plusieurs systèmes linéaires avec la même matrice mais différents seconds membres ? Pour l'application voulue, les matrices sont complexes, denses et de grande taille (de l'ordre de quelques millions). Comme de telles matrices ne peuvent être ni calculées, ni stockées dans un processus industriel, l'utilisation d'un produit matrice-vecteur approché est la seule alternative. En l'occurrence, le produit matrice-vecteur est effectué en utilisant la méthode multipôle rapide. Dans ce contexte, le but de cette thèse est d'adapter les méthodes itératives de type Krylov de telles sorte qu'elles traitent efficacement les nombreux seconds membres. Nous nous concentrons particulièrement sur l'algorithme GMRES et ses variantes. Les schémas d'orthogonalisation que nous avons implanté dans GMRES sont des variantes de l'algorithme de Gram-Schmidt. Dans une première partie, nous nous intéressons à l'influence des erreurs d'arrondi dans les algorithmes de Gram-Schmidt. Dans une deuxième partie, nous avons étudié des variantes de la méthode GMRES, notamment GMRES-DR, seed GMRES et block GMRES. La troisième partie est dédiée à l'amélioration de ces techniques standards dans le cadre des problèmes électromagnétiques
The starting point of this thesis is a problem posed by the electromagnetism group at EADS-CCR: How to solve several linear systems with the same coefficient matrix but various right-hand sides ? For the targeted application, the matrices are complex, dense and huge (of order of a few millions). Because such matrices cannot be computed nor stored in numerical simulations involved in a design process, the use of an iterative scheme with an approximate matrix-vector product is the only alternative. The matrix-vector product is performed using the Fast Multipole Method. In this context, the goal of this thesis is to adapt Krylov solvers so that they handle efficiently multiple right-hand sides. We mainly focus, in this thesis, on variants of GMRES. The orthogonalization schemes that we implemented for GMRES are some variants of the Gram-Schmidt algorithm. In a first part, we have investigated the effect of rounding errors in the Gram-Schmidt algorithms. In a second part, we have studied variants of the GMRES algorithm in particular GMRES-DR, seed GMRES et block GMRES. The third part is dedicated to the improvement of these standard methods for the solution of linear systems arising in electromagnetic applications
APA, Harvard, Vancouver, ISO, and other styles
46

Janbain, Ali. "Utilisation d'algorithmes génétiques pour l'identification systématique de réseaux de gènes co-régulés." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTT019/document.

Full text
Abstract:
L’objectif de ce travail est de mettre au point une nouvelle approche automatique pour identifier les réseaux de gènes concourant à une même fonction biologique. Ceci permet une meilleure compréhension des phénomènes biologiques et notamment des processus impliqués dans les maladies telles que les cancers. Différentes stratégies ont été développées pour essayer de regrouper les gènes d’un organisme selon leurs relations fonctionnelles : génétique classique et génétique moléculaire. Ici, nous utilisons une propriété connue des réseaux de gènes fonctionnellement liés à savoir que ces gènes sont généralement co-régulés et donc co-exprimés. Cette co-régulation peut être mise en évidence par des méta-analyses de données de puces à ADN (micro-arrays) telles que Gemma ou COXPRESdb. Dans un travail précédent [Al Adhami et al., 2015], la topologie d’un réseau de co-expression de gènes a été caractérisé en utilisant deux paramètres de description des réseaux qui discriminent des groupes de gènes sélectionnés aléatoirement (modules aléatoires, RM) de groupes de gènes avec des liens fonctionnels connus (modules fonctionnels, FM), c’est-à-dire des gènes appartenant au même processus biologique GO. Dans le présent travail, nous avons cherché à généraliser cette approche et à proposer une méthode, appelée TopoFunc, pour améliorer l’annotation existante de la fonction génique. Nous avons d’abord testé différents descripteurs topologiques du réseau de co-expression pour sélectionner ceux qui identifient le mieux des modules fonctionnels. Puis, nous avons constitué une base de données rassemblant des modules fonctionnels et aléatoires, pour lesquels, sur la base des descripteurs sélectionnés, nous avons construit un modèle de discrimination LDA [Friedman et al., 2001] permettant, pour un sous-ensemble de gènes donné, de prédire son type (fonctionnel ou non). Basée sur la méthode de similarité de gènes travaillée par Wang et ses collègues [Wang et al., 2007], nous avons calculé un score de similarité fonctionnelle entre les gènes d’un module. Nous avons combiné ce score avec celui du modèle LDA dans une fonction de fitness implémenté dans un algorithme génétique (GA). À partir du processus biologique d’ontologie de gènes donné (GO-BP), AG visait à éliminer les gènes faiblement co-exprimés avec la plus grande clique de GO-BP et à ajouter des gènes «améliorant» la topologie et la fonctionnalité du module. Nous avons testé TopoFunc sur 193 GO-BP murins comprenant 50-100 gènes et avons montré que TopoFunc avait agrégé un certain nombre de nouveaux gènes avec le GO-BP initial tout en améliorant la topologie des modules et la similarité fonctionnelle. Ces études peuvent être menées sur plusieurs espèces (homme, souris, rat, et possiblement poulet et poisson zèbre) afin d’identifier des modules fonctionnels conservés au cours de l’évolution
The aim of this work is to develop a new automatic approach to identify networks of genes involved in the same biological function. This allows a better understanding of the biological phenomena and in particular of the processes involved in diseases such as cancers. Various strategies have been developed to try to cluster genes of an organism according to their functional relationships : classical genetics and molecular genetics. Here we use a well-known property of functionally related genes mainly that these genes are generally co-regulated and therefore co-expressed. This co-regulation can be detected by microarray meta-analyzes databases such as Gemma or COXPRESdb. In a previous work [Al Adhami et al., 2015], the topology of a gene coexpression network was characterized using two description parameters of networks that discriminate randomly selected groups of genes (random modules, RM) from groups of genes with known functional relationship (functional modules, FM), e.g. genes that belong to the same GO Biological Process. We first tested different topological descriptors of the co-expression network to select those that best identify functional modules. Then, we built a database of functional and random modules for which, based on the selected descriptors, we constructed a discrimination model (LDA)[Friedman et al., 2001] allowing, for a given subset of genes, predict its type (functional or not). Based on the similarity method of genes worked by Wang and co-workers [Wang et al., 2007], we calculated a functional similarity score between the genes of a module. We combined this score with that of the LDA model in a fitness function implemented in a genetic algorithm (GA). Starting from a given Gene Ontology Biological Process (GO-BP), AG aimed to eliminate genes that were weakly coexpressed with the largest clique of the GO-BP and to add genes that "improved" the topology and functionality of the module. We tested TopoFunc on the 193 murine GO-BPs comprising 50-100 genes and showed that TopoFunc aggregated a number of novel genes to the initial GO-BP while improving module topology and functional similarity. These studies can be conducted on several species (humans, mice, rats, and possibly chicken and zebrafish) to identify functional modules preserved during evolution
APA, Harvard, Vancouver, ISO, and other styles
47

Cherif, Riheb. "Développement de solveurs non linéaires robustes pour la méthode des éléments finis appliquée à des problèmes électromagnétiques basses fréquences." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I088.

Full text
Abstract:
Les problèmes électromagnétiques non linéaires sont largement rencontrés en électrotechnique, comme les applications de machines électriques. Le calcul des champs magnétiques nécessite la résolution de problèmes non linéaires dus à la saturation des matériaux ferromagnétiques. La méthode des éléments finis (FEM) est la technique la plus utilisée dans le domaine de modélisation grâce à sa grande précision et à sa robustesse pour résoudre des systèmes aux géométries complexes. La discrétisation de ces problèmes conduit à un grand système d'équations non linéaires qui peuvent être résolus par deux processus itératifs importants: la méthode du point fixe qui est plus robuste, mais peut être très lente vu sa vitesse de convergence linéaire et la méthode de Newton qui a été largement préférée pour résoudre les problèmes de champs non linéaires grâce à sa vitesse de convergence quadratique. Cependant, cette convergence reste locale c'est-à-dire que l'estimation initiale doit être proche de la solution. Ainsi, plusieurs techniques de globalisation sont introduites pour atteindre un niveau acceptable de robustesse. De plus, une itération de Newton peut s'avérer très coûteuse. En effet, elle demande à chaque itération l'évaluation de la matrice jacobienne et la résolution du problème linéarisé impliquant cette dernière matrice. Pour diminuer ces coûts de résolution, plusieurs variantes de cette méthode sont introduites comme les méthodes de Newton-inexactes et les méthodes de Quasi-Newton. Cette thèse a pour but d'implémenter des méthodes numériques mieux adaptées au traitement des problèmes électromagnétiques non linéaires. Ces méthodes seront des versions plus robustes et accélérées des solveurs existants comme les méthodes du type Newton
Non-linear electromagnetic problems are widely encountered in electrical engineering like applications of electrical machines. The computation of the magnetic fields requires the resolution of nonlinear problems due to the saturation of ferromagnetic materials. The finite element method (FEM) is a widely used numerical technique in the modeling field thanks to its high precision and robustness for solving systems with complex geometries. The discretization of these problems leads to a large system of nonlinear equations that can be solved by two important iterative processes: the fixed point method which is more robust, but can be very slow, due to its linear convergence rate and the Newton method which has been widely preferred for nonlinear field problems, thanks to its quadratic convergence speed. However, this convergence remains local, it means that the initial estimation must be rather close to the solution. Thus, several globalization techniques are introduced to acheive an acceptable level of robustness. In addition, an iteration of Newton can be very expensive. In fact, at each iteration, it requires the evaluation of the Jacobian and the resolution of the linearized problem involving this last matrix. To reduce these resolution costs, several variants of this method are introduced as the Inexact-Newton methods and Quasi-Newton methods
APA, Harvard, Vancouver, ISO, and other styles
48

Machado, Andrade Oliveira. "Ultrafast lasers in the femtosecond regime : generation, amplification and measurement." Palaiseau, Ecole polytechnique, 2013. https://pastel.archives-ouvertes.fr/file/index/docid/942477/filename/Pedro_Oliveira.pdf.

Full text
Abstract:
Il est intuitif qu’avec de nouveaux outils, il devient possible d’explorer de nouveaux domaines de la physique. Les champs électromagnétiques ultra-rapides sont l’un de ces outils, ils permettent de sonder la matière à de nouvelles échelles de temps, à la fois pour développer de nouvelles applications et pour la recherche fondamentale. Néanmoins, ces champs constituent en eux-mêmes un phénomène méritant d’être analysé et étudié. Le travail présenté ici est divisé en deux parties, dont la première s’occupe de la génération et amplification de lasers ultracourtes. L’amplification paramétrique optique est discutée dans les différentes configurations, notamment dans le cas où le signal a une dérivé angulaire spectrale. On discute aussi deux oscillateurs à blocage de mode en phase. Ont présente aussi une nouvelle manière d’étudier son comportement en fonction des dimensions de la sous-cavité. La mesure de ces phénomènes représente également un défi en raison de l’échelle temporelle extrêmement réduite à laquelle ces phénomènes se produisent, échelle bien trop petite pour des méthodes de mesure traditionnelles. Dans ce manuscrit, nous avons abordé deux techniques de mesure bien connues: l’autocorrélation interférométrique (IAC) du second ordre et la corrélation croisée du 3ème ordre (TOCC). Avec l’IAC et une mesure de la puissance spectrale du champ, il est possible de reconstruire intégralement le champ électrique tandis que le TOCC associé à l’autocorrélation en intensité détermine le profil en intensité de manière unique, et ont présente des algorithmes que font la reconstruction avec un haut contraste. Nous avons par ailleurs étudié la réalisation d’une nouvelle configuration de corrélateur croisé monocoup
It is intuitive that with new tools to analyze nature, new domains can be explored. Ultrafast electromagnetic fields are one of those tools, as they allow the probing of matter on new time scales, both for new applications and for basic research. However they are on their own right an important phenomenon that deserves to be analyzed, studied and probed. This work is divided in two parts one that deals with the generation and amplification of ultrashort pulses the second with the diagnostics of these lasers. We present a home-built tunable, narrow spectrum CPA amplification chain. We study the features of optical parametric amplification in several configurations. We made simulations regarding the amplification of a seed pulse that is angularly chirped, we also make some analytical calculations based on the same principle. Two mode-locked oscillators are presented one is a sub-12 fs laser oscillator used to produce the seed of the amplification chain, the second is a sub-6 fs laser oscillator. We describe the first laser oscillator in great detail. We devise and discuss models that can explain the parameters of the sub-cavity and the ability of these lasers to enter into mode-locking (ML), we compare the simulation results precise experimental measures made on the sub-6 fs oscillator. The measurement of ultrafast phenomena is also very challenging because their time scale is too short for common electronic devices. We have examined known measurements, such as third order cross correlations (TOCC) and interferometric second order autocorrelations (IAC) and obtained new analysis methods and new facts that broaden their usefulness. In particular, we have fully reconstructed the spectral phase of a pulse using an IAC trace and its power spectrum. We also prove that the existence of a TOCC plus an intensity autocorrelation is sufficient to retrieve the intensity profile of a pulse we present initial results on reconstruction algorithms, that might be able to do this with a high temporal contrast. We end this thesis with a study on simulation and implementation of a new configuration for single shot correlation measurements
APA, Harvard, Vancouver, ISO, and other styles
49

Lenain, Roland. "Amélioration des méthodes de calcul de cœurs de réacteurs nucléaires dans APOLLO3 : décomposition de domaine en théorie du transport pour des géométries 2D et 3D avec une accélération non linéaire par la diffusion." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112180/document.

Full text
Abstract:
Ce travail de thèse est consacré à la mise en œuvre d’une méthode de décomposition de domaine appliquée à l’équation du transport. L’objectif de ce travail est l’accès à des solutions déterministes haute-fidélité permettant de correctement traiter les hétérogénéités des réacteurs nucléaires, pour des problèmes dont la taille varie d’un motif d’assemblage en 3 dimensions jusqu’à celle d’un grand cœur complet en 3D. L’algorithme novateur développé au cours de la thèse vise à optimiser l’utilisation du parallélisme et celle de la mémoire. La démarche adoptée a aussi pour but la diminution de l’influence de l’implémentation parallèle sur les performances. Ces objectifs répondent aux besoins du projet APOLLO3, développé au CEA et soutenu par EDF et AREVA, qui se doit d’être un code portable (pas d’optimisation sur une architecture particulière) permettant de réaliser des modélisations haute-fidélité (best estimate) avec des ressources allant des machines de bureau aux calculateurs disponibles dans les laboratoires d’études. L’algorithme que nous proposons est un algorithme de Jacobi Parallèle par Bloc Multigroupe. Chaque sous domaine est un problème multigroupe à sources fixes ayant des sources volumiques (fission) et surfaciques (données par les flux d’interface entre les sous domaines). Le problème multigroupe est résolu dans chaque sous domaine et une seule communication des flux d’interface est requise par itération de puissance. Le rayon spectral de l’algorithme de résolution est rendu comparable à celui de l’algorithme de résolution classique grâce à une méthode d’accélération non linéaire par la diffusion bien connue nommée Coarse Mesh Finite Difference. De cette manière une scalabilité idéale est atteignable lors de la parallélisation. L’organisation de la mémoire, tirant parti du parallélisme à mémoire partagée, permet d’optimiser les ressources en évitant les copies de données redondantes entre les sous domaines. Les architectures de calcul à mémoire distribuée sont rendues accessibles par un parallélisme hybride qui combine le parallélisme à mémoire partagée et à mémoire distribuée. Pour des problèmes de grande taille, ces architectures permettent d’accéder à un plus grand nombre de processeurs et à la quantité de mémoire nécessaire aux modélisations haute-fidélité. Ainsi, nous avons réalisé plusieurs exercices de modélisation afin de démontrer le potentiel de la réalisation : calcul de cœur et de motifs d’assemblages en 2D et 3D prenant en compte les contraintes de discrétisation spatiales et énergétiques attendues
This thesis is devoted to the implementation of a domain decomposition method applied to the neutron transport equation. The objective of this work is to access high-fidelity deterministic solutions to properly handle heterogeneities located in nuclear reactor cores, for problems’ size ranging from colorsets of assemblies to large reactor cores configurations in 2D and 3D. The innovative algorithm developed during the thesis intends to optimize the use of parallelism and memory. The approach also aims to minimize the influence of the parallel implementation on the performances. These goals match the needs of APOLLO3 project, developed at CEA and supported by EDF and AREVA, which must be a portable code (no optimization on a specific architecture) in order to achieve best estimate modeling with resources ranging from personal computer to compute cluster available for engineers analyses. The proposed algorithm is a Parallel Multigroup-Block Jacobi one. Each subdomain is considered as a multi-group fixed-source problem with volume-sources (fission) and surface-sources (interface flux between the subdomains). The multi-group problem is solved in each subdomain and a single communication of the interface flux is required at each power iteration. The spectral radius of the resolution algorithm is made similar to the one of a classical resolution algorithm with a nonlinear diffusion acceleration method: the well-known Coarse Mesh Finite Difference. In this way an ideal scalability is achievable when the calculation is parallelized. The memory organization, taking advantage of shared memory parallelism, optimizes the resources by avoiding redundant copies of the data shared between the subdomains. Distributed memory architectures are made available by a hybrid parallel method that combines both paradigms of shared memory parallelism and distributed memory parallelism. For large problems, these architectures provide a greater number of processors and the amount of memory required for high-fidelity modeling. Thus, we have completed several modeling exercises to demonstrate the potential of the method: 2D full core calculation of a large pressurized water reactor and 3D colorsets of assemblies taking into account the constraints of space and energy discretization expected for high-fidelity modeling
APA, Harvard, Vancouver, ISO, and other styles
50

Sigrist, Zoé. "Contribution à l'identification de systèmes non-linéaires en milieu bruité pour la modélisation de structures mécaniques soumises à des excitations vibratoires." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14655/document.

Full text
Abstract:
Cette thèse porte sur la caractérisation de structures mécaniques, au travers de leurs paramètres structuraux, à partir d'observations perturbées par des bruits de mesure, supposés additifs blancs gaussiens et centrés. Pour cela, nous proposons d'utiliser des modèles à temps discret à parties linéaire et non-linéaire séparables. La première permet de retrouver les paramètres recherchés tandis que la seconde renseigne sur la non-linéarité présente. Dans le cadre d'une modélisation non-récursive par des séries de Volterra, nous présentons une approche à erreurs-dans-les-variables lorsque les variances des bruits ne sont pas connues ainsi qu'un algorithme adaptatif du type LMS nécessitant la connaissance de la variance du bruit d'entrée. Dans le cadre d'une modélisation par un modèle récursif polynomial, nous proposons deux méthodes à partir d'algorithmes évolutionnaires. La première inclut un protocole d'arrêt tenant compte de la variance du bruit de sortie. Dans la seconde, les fonctions fitness sont fondées sur des fonctions de corrélation dans lesquelles l'influence du bruit est supprimée ou compensée
This PhD deals with the caracterisation of mechanical structures, by its structural parameters, when only noisy observations disturbed by additive measurement noises, assumed to be zero-mean white and Gaussian, are available. For this purpose, we suggest using discrete-time models with distinct linear and nonlinear parts. The first one allows the structural parameters to be retrieved whereas the second one gives information on the nonlinearity. When dealing with non-recursive Volterra series, we propose an errors-in-variables (EIV) method to jointly estimate the noise variances and the Volterra kernels. We also suggest a modified unbiased LMS algorithm to estimate the model parameters provided that the input-noise variance is known. When dealing with recursive polynomial model, we propose two methods using evolutionary algorithms. The first includes a stop protocol that takes into account the output-noise variance. In the second one, the fitness functions are based on correlation criteria in which the noise influence is removed or compensated
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography