Dissertations / Theses on the topic 'Discrete complexes'

To see the other types of publications on this topic, follow the link: Discrete complexes.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Discrete complexes.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

LEWINER, THOMAS. "GEOMETRIC DISCRETE MORSE COMPLEXES." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2005. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=7353@1.

Full text
Abstract:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
A geometria diferencial descreve de maneira intuitiva os objetos suaves no espaço. Porém, com a evolução da modelagem geométrica por computador, essa ferramenta se tornou ao mesmo tempo necessária e difícil de se descrever no mundo discreto. A teoria de Morse ficou importante pela ligação que ela cria entre a topologia e a geometria diferenciais. Partindo de um ponto de vista mais combinatório, a teoria de Morse discreta de Forman liga de forma rigorosa os objetos discretos à topologia deles, abrindo essa teoria para estruturas discretas. Este trabalho propõe uma definição construtiva de funções de Morse geométricas no mundo discreto e do complexo de Morse-Smale correspondente, onde a geometria é definida como a amostragem de uma função suave nos vértices da estrutura discreta. Essa construção precisa de cálculos de homologia que se tornaram por si só uma melhoria significativa dos métodos existentes. A decomposição de Morse- Smale resultante pode ser eficientemente computada e usada para aplicações de cálculo da persistência, geração de grafos de Reeb, remoção de ruído e mais. . .
Differential geometry provides an intuitive way of understanding smooth objects in the space. However, with the evolution of geometric modeling by computer, this tool became both necessary and difficult to transpose to the discrete setting. The power of Morse theory relies on the link it created between differential topology and geometry. Starting from a combinatorial point of view, Forman´s discrete Morse theory relates rigorously discrete objects to their topology, opening Morse theory to discrete structures. This work proposes a constructive definition of geometric discrete Morse functions and their corresponding discrete Morse-Smale complexes, where the geometry is defined as a smooth function sampled on the vertices of the discrete structure. This construction required some homology computations that turned out to be a significant improvement over existing methods by itself. The resulting Morse-Smale decomposition can then be efficiently computed, and used for applications to persistence computation, Reeb graph generation, noise removal. . .
APA, Harvard, Vancouver, ISO, and other styles
2

Kowalick, Ryan. "Discrete Systolic Inequalities." The Ohio State University, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=osu1384873457.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Umutabazi, Vincent. "Smooth Schubert varieties and boolean complexes of involutions." Licentiate thesis, Linköpings universitet, Algebra, geometri och diskret matematik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-179060.

Full text
Abstract:
This thesis is composed of two papers both in algebraic combinatorics and Coxeter groups. In Paper I, we concentrate on smoothness of Schubert varieties indexed by involutions from finite simply laced types. We show that if a Schubert variety indexed by an involution of a finite and simply laced Coxeter group is smooth, then that involution must be the longest element of a parabolic subgroup. Given a Coxeter system (W, S), we introduce in Paper II the boolean complex of involutions of W as an analogue of the boolean complex of W studied by Ragnarsson and Tenner. By using discrete Morse Theory, we compute the homotopy type for a large class of W, including all finite Coxeter groups. In all cases, the homotopy type is that of a wedge of spheres of dimension |S| − 1. In addition, we provide a recurrence formula for the number of spheres in the wedge.
APA, Harvard, Vancouver, ISO, and other styles
4

Browning, Jonathan Darren. "Synthesis of discrete models for aluminophosphate-type molecular sieves." Thesis, University of Southampton, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.241907.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hough, Wesley K. "On Independence, Matching, and Homomorphism Complexes." UKnowledge, 2017. http://uknowledge.uky.edu/math_etds/42.

Full text
Abstract:
First introduced by Forman in 1998, discrete Morse theory has become a standard tool in topological combinatorics. The main idea of discrete Morse theory is to pair cells in a cellular complex in a manner that permits cancellation via elementary collapses, reducing the complex under consideration to a homotopy equivalent complex with fewer cells. In chapter 1, we introduce the relevant background for discrete Morse theory. In chapter 2, we define a discrete Morse matching for a family of independence complexes that generalize the matching complexes of suitable "small" grid graphs. Using this matching, we determine the dimensions of the chain spaces for the resulting Morse complexes and derive bounds on the location of non-trivial homology groups. Furthermore, we determine the Euler characteristic for these complexes and prove that several of their homology groups are non-zero. In chapter 3, we introduce the notion of a homomorphism complex for partially ordered sets, placing particular emphasis on maps between chain posets and the Boolean algebras. We extend the notion of folding from general graph homomorphism complexes to the poset case, and we define an iterative discrete Morse matching for these Boolean complexes. We provide formulas for enumerating the number of critical cells arising from this matching as well as for the Euler characteristic. We end with a conjecture on the optimality of our matching derived from connections to 3-equal manifolds
APA, Harvard, Vancouver, ISO, and other styles
6

Hytteballe, Sophie [Verfasser]. "Synthesis of ligands for self-assembly of discrete metallo-supramolecular complexes / Sophie Hytteballe." Bonn : Universitäts- und Landesbibliothek Bonn, 2016. http://d-nb.info/1096329891/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Arnold, Rachel Florence. "Complex Analysis on Planar Cell Complexes." Thesis, Virginia Tech, 2008. http://hdl.handle.net/10919/32230.

Full text
Abstract:
This paper is an examination of the theory of discrete complex analysis that arises from the framework of a planar cell complex. Construction of this theory is largely integration-based. A combination of two cell complexes, the double and its associated diamond complex, allows for the development of a discrete Cauchy Integral Formula.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
8

Bouchair, Nabil. "Diagnostic de systèmes complexes par comparaison de listes d’alarmes : application aux systèmes de contrôle du LHC." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT025/document.

Full text
Abstract:
Au CERN (Organisation européenne pour la recherche nucléaire), le contrôle et la supervision du plus grand accélérateur du monde, le LHC (Large Hadron Collider), sont basés sur des solutions industrielles (SCADA). Le LHC est composé de sous-systèmes disposant d’un grand nombre de capteurs et d’actionneurs qui rendent la surveillance de ces équipements un véritable défi pour les opérateurs. Même avec les solutions SCADA actuelles, l’occurrence d’un défaut déclenche de véritables avalanches d’alarmes, rendant le diagnostic de ces systèmes très difficile. Cette thèse propose une méthodologie d’aide au diagnostic à partir de données historiques du système. Les signatures des défauts déjà rencontrés et représentés par les listes d’alarmes qu’ils ont déclenchés sont comparées à la liste d’alarmes du défaut à diagnostiquer. Deux approches sont considérées. Dans la première, l’ordre d’apparition des alarmes n’est pas pris en compte et les listes d’alarmes sont représentées par un vecteur binaire. La comparaison se fait à l’aide d’une distance pondérée. Le poids de chaque alarme est évalué en fonction de son aptitude à caractériser chaque défaut. La seconde approche prend en compte l’ordre d’apparition des alarmes, les listes d’alarmes sont alors représentées sous forme de séquences symboliques. La comparaison entre ces deux séquences se fait à l’aide d’un algorithme dérivé de l’algorithme de Needleman et Wunsch utilisé dans le domaine de la Bio-Informatique. Les deux approches sont testées sur des données artificielles ainsi que sur des données extraites d’un simulateur très réaliste d’un des systèmes du LHC et montrent de bons résultats
In the context of the CERN Large Hadron Collider (LHC), a large number of control systems have been built based on industrial control and SCADA solutions. Beyond the complexity of these systems, a large number of sensors and actuators are controlled which make the monitoring and diagnostic of these equipment a continuous and real challenge for human operators. Even with the existing SCADA monitoring tools, critical situations prompt alarms avalanches in the supervision that makes diagnostic more difficult. This thesis proposes a decision support methodology based on the use of historical data. Past faults signatures represented by alarm lists are compared with the alarm list of the fault to diagnose using pattern matching methods. Two approaches are considered. In the first one, the order of appearance is not taken into account, the alarm lists are then represented by a binary vector and compared to each other thanks to an original weighted distance. Every alarm is weighted according to its ability to represent correctly every past faults. The second approach takes into account the alarms order and uses a symbolic sequence to represent the faults. The comparison between the sequences is then made by an adapted version of the Needleman and Wunsch algorithm widely used in Bio-Informatic. The two methods are tested on artificial data and on simulated data extracted from a very realistic simulator of one of the CERN system. Both methods show good results
APA, Harvard, Vancouver, ISO, and other styles
9

Akintola, Oluseun [Verfasser], Winfried [Gutachter] Plass, Felix [Gutachter] Schacher, and Dirk [Gutachter] Volkmer. "Carboxylate-functionalized triphenylamine-based complexes : from discrete monomeric complexes to 2D and 3D extended frameworks / Oluseun Akintola ; Gutachter: Winfried Plass, Felix Schacher, Dirk Volkmer." Jena : Friedrich-Schiller-Universität Jena, 2018. http://d-nb.info/1172206899/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Jonsson, Jakob. "Simplicial Complexes of Graphs." Doctoral thesis, Stockholm, 2005. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-202.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Dedecker, Fabian. "Changements d'échelle dans les milieux granulaires à interactions complexes." Ecully, Ecole centrale de Lyon, 1999. http://bibli.ec-lyon.fr/exl-doc/TH_T1787_fdedecker.pdf.

Full text
Abstract:
Ces derniers années ont vu le développement de nombreux travaux de recherche portant sur la modélisation du comportement des matériaux granulaires à partir d'approches de type micromécanique. Ces approches doivent permettre de relier deux échelles à priori bien distinctes : celle du grain et des contacts, et celle du milieu granulaire dans son ensemble. Elles cherchent ainsi à décrire, contrairement aux modèles phénoménologiques, le comportement des matériaux granulaires à partir de considérations simples sur la physique du contact interparticulaire. L'objectif principal de cette étude est l'amélioration de ces modélisations en réalisant une analyse de certains phénomènes locaux, généralement négligés dans les modélisations actuelles. Pour mener à bien ces travaux, deux types d'approches ont été utilisés : - une approche théorique, par homogénéisation statistique fondée principalement sur la variable orientation du contact ; - une approche numérique, par utilisation d'un code de calcul basé sur la méthode des éléments discrets (PFC2D). Ces deux approches, totalement complémentaires, ont été la clé de voûte de ce travail de recherche, par une comparaison continuelle de celles-ci. Ce travail vise à analyser et améliorer trois axes de l'approche micromécanique : - la cinématique des matériaux granulaires, avec pour objectif l'étude des liens entre les cinématiques locales (roulement, glissement et déplacement des particules qui ne sont pas en contact) et le tenseur de déformation ; - l'influence des couples de contact sur le comportement microscopique et macroscopique, ainsi que l'intérêt de leur prise en compte dans les modélisations micromécaniques ; - l'étude de la rupture des milieux granulaires cimentés, avec pour objectif la détermination des propriétés macroscopiques de rupture, à partir des paramètres du comportement microscopique
Many works concerning the behaviour of granular materials based on micromechanical approaches have been proposed during the last years. These approaches connect two very different scales : the first one concerns grain and contacts, and the second one concerns the representative volume of a granular material. In opposition to phenomenological models, micromechanical approaches try to describe the behaviour of granular materials based on simple concepts relevant of the local phenomena. The main objective of this study is the improvement of a model based on the micromechanical approach, focusing on some local phenomena, generally neglected in a classical approach. In order to do this, two kinds of approaches have been used : - a theoretical one using a statistical homogenization approach mainly based on orientation of a contact variable ; - a numerical one using a software (PFC2D) based on the Discrete Element Method. A constant comparison of the above two approaches is a key ingredient of this work. This work aims to analyse and improve three topics of micromechanical approach : - the granular materials kinematics : the goal is the study of relations between local kinematics (rolling, sliding and displacements of particles which are not in contact) and strain tensor ; - the influence of contact couples on the microscopic and macroscopic behaviour, as well as the interest of taking them into account in micromechanical approaches ; 0 the study of cemented granular materials rupture : the aim is the definition of macroscopic parameters for rupture from local microscopic characteristics
APA, Harvard, Vancouver, ISO, and other styles
12

Brinks, Daan. "Nanoscale Coherent Control. Ultrafast dynamics of single molecules, individual light harvesting complexes and discrete nanoantennas at room temperature." Doctoral thesis, Universitat Politècnica de Catalunya, 2012. http://hdl.handle.net/10803/97001.

Full text
Abstract:
Ultrafast pulses allow observation of molecular dynamics with femtosecond time resolution through pump probe experiments. However, averaging over an ensemble of molecules tends to wash out phase sensitive information, necessary to probe quantum effects, due to the intrinsic inhomogeneity in molecular conformations, orientations and interactions that lead to unique potential energy landscapes for each molecule. It is therefore important to go beyond the ensemble average when looking at quantum dynamics of organic systems at room temperature, and resolve the behaviour of specific molecules on an individual basis. In this thesis, we show the creation, manipulation and observation of ultrafast coherent effects in single molecules at room temperature, and resolve a certain measure of environmental influence on the specific dynamics of each molecule. Moreover, we apply this insight to investigate a functional light harvesting biosystem, and lay the basis for a technique that has the time and space resolution required to observe these systems in vivo. In chapter 1, we introduce the concepts and techniques the research in this thesis is built on. In chapter 2, we treat the possibility of controlling ultrafast pulses at the high-NA diffraction limit, and come to conclusions about the procedure to follow there that hold for all pulse-shaping experiments. We show in proof of principle experiments that we can control the ultrafast characteristics of optical pulses in nanometric excitation volumes. In chapters 3 and 4 we report the creation, detection and control of ultrafast quantum dynamics in single organic molecules at room temperature. We show that manipulation of superposition states is possible in these systems within a coherence dephasing time of ~50 fs. This leads to the first observation of rabi-oscillations in room temperature single molecules, to ultrafast operation of an organic qubit, and to the creation of non-stationary superposition states (vibrational wavepackets). We probe the influence of the local environment on the composition and dynamics of these wavepackets and show we can optimize the state preparation protocol for each individual molecule in its own nanoenvironment, leading to high fidelity coherent control. In these chapters we lay out the proof of principle work of detecting the quantumdynamics of a complex system in interaction with its environment at room temperature. In chapter 5 we discuss application of these techniques to the investigation of long lived coherence in photosynthetic systems. We show that electronic coherence between different rings of the LH2 system persists to time scales of 100s of femtoseconds at room temperature. Moreover we show that the energy transfer pathways in LH2 adapt to environmentally induced changes in the molecule and that the nature of the transfer remains coherent for each pathway, providing strong evidence that coherent energy transfer is the optimum process for energy transfer in photosynthesis. Finally, in chapter 6 we take the technical development one step further and report on the creation of a framework based on plasmonic antennas that allows for control of the amplitude-phase characteristics in nanometric sized hotspot fields. We show for the first time that the ultrafast characteristics of plasmonic hotspots can directly be engineered through design of the plasmonic system and experimentally demonstrate two much-anticipated examples: a sub-diffraction resolution phase shaper and an ultrafast plasmonic switch for pump probe experiments. The results presented in this thesis form the first creation and observation of ultrafast coherent dynamics in individual molecular systems at room temperature. This is a necessary step to be able to do true quantum tomography in complex systems, resolve the influence of the environment on molecular dynamics, and investigate the physics that determines evolutionary optimization and functionality in biomolecules.
APA, Harvard, Vancouver, ISO, and other styles
13

Zaourar, Lilia Koutchoukali. "Recherche opérationnelle et optimisation pour la conception testable de circuits intégrés complexes." Grenoble, 2010. http://www.theses.fr/2010GRENM055.

Full text
Abstract:
Le travail de cette thèse est à l'interface des dom aines de la recherche opérationnelle et de la micro -électronique. Il traite de l'utilisation des techniques d'optimisation combinatoire pour la DFT (Design For Test) des Circuits Intégrés (CI). Avec la croissance rapide et la complexité des CI actuels, la qualité ainsi que le coût du test sont devenus des paramètres importants dans l'industrie des semi-conducteurs. Afin de s'assurer du bon fonctionnement du CI, l'étape de test est plus que jamais une étape essentielle et délicate dans le processus de fabrication d'un CI. Pour répondre aux exigences du marché, le test doit être rapide et efficace dans la révélation d'éventuels défauts. Pour cela, il devient incontournable d'appréhender la phase de test dès les étapes de conception du CI. Dans ce contexte, la conception testable plus connue sous l'appellation DFT vise à améliorer la testabilité des CI. Plusieurs problèmes d'optimisation et d'aide à la décision découlent de la micro-électronique. La plupart de ces travaux traitent des problèmes d'optimisation combinatoire pour le placement et routage des circuits. Nos travaux de recherche sont à un niveau de conception plus amont, la DFT en présynthèse au niveau transfert de registres ou RTL (Register Transfer Level). Cette thèse se découpe en trois parties. Dans la première partie nous introduisons les notions de bases de recherche opérationnelle, de conception et de test des CI. La démarche suivie ainsi que les outils de résolution utilisés dans le reste du document sont présentés dans cette partie. Dans la deuxième partie, nous nous intéressons au problème de l'optimisation de l'insertion des chaîne s de scan. A l'heure actuelle, le "scan interne" est une des techniques d'amélioration de testabilité ou de DFT les plus largement adoptées pour les circuits intégrés numériques. Il s'agit de chaîner les éléments mémoires ou bascules du circuit de sorte à former des chaînes de scan qui seront considérées pendant la phase de test comme points de contrôle et d'observation de la logique interne du circuit. L'objectif de notre travail est de développer des algorithmes permettant de générer pour un CI donné et dès le niveau RTL des chaînes de scan optimales en termes de surface, de temps de test et de consommation en puissance, tout en respectant des critères de performance purement fonctionnels. Ce problème a été modélisé comme la recherche de plus courtes chaînes dans un graphe pondéré. Les méthodes de résolution utilisées sont basées sur la recherche de chaînes hamiltoniennes de longueur minimale. Ces travaux ont été réalisés en collaboration avec la start-up DeFacTo Technologies. La troisième partie s'intéresse au problème de partage de blocs BIST (Built In Self Test) pour le test des mémoires. Le problème peut être formulé de la façon suivante : étant données des mémoires de différents types et tailles, ainsi que des règles de partage des colliers en série et en parallèle, il s'agit d'identifier des solutions au problème en associant à chaque mémoire un collier. La solution obtenue doit minimiser à la fois la surface, la consommation en puissance et le temps de test du CI. Pour résoudre ce problème, nous avons conçu un prototype nommé Memory BIST Optimizer (MBO). Il est constitué de deux phases de résolution et d'une phase de validation. La première phase consiste à créer des groupes de compatibilité de mémoires en tenant compte des règles de partage et d'abstraction des technologies utilisées. La deuxième phase utilise les algorithmes génétiques pour l'optimisation multi-objectifs afin d'obtenir un ensemble de solutions non dominées. Enfin, la validation permet de vérifier que la solution fournie est valide. De plus, elle affiche l'ensemble des solutions à travers une interface graphique ou textuelle. Cela permet à l'utilisateur de choisir la solution qui lui correspond le mieux. Actuellement, l'outil MBO est intégré dans un flot d'outils à ST-microelectronics pour une utilisation par ses clients
This thesis is a research contribution interfacing operations research and microelectronics. It considers the use of combinatorial optimization techniques for DFT (Design For Test) of Integrated Circuits (IC). With the growing complexity of current IC both quality and cost during manufacturing testing have become important parameters in the semiconductor industry. To ensure proper functioning of the IC, the testing step is more than ever a crucial and difficult step in the overall IC manufacturing process. To answer market requirements, chip testing should be fast and effective in uncovering defects. For this, it becomes essential to apprehend the test phase from the design steps of IC. In this context, DFT techniques and methodologies aim at improving the testability of IC. In previous research works, several problems of optimization and decision making were derived from the micro- electronics domain. Most of previous research contributions dealt with problems of combinatorial optimization for placement and routing during IC design. In this thesis, a higher design level is considered where the DFT problem is analyzed at the Register Transfer Level (RTL) before the logic synthesis process starts. This thesis is structured into three parts. In the first part, preliminaries and basic concepts of operations research, IC design and manufacturing are introduced. Next, both our approach and the solution tools which are used in the rest of this work are presented. In the second part, the problem of optimizing the insertion of scan chains is considered. Currently, " internal scan" is a widely adopted DFT technique for sequential digital designs where the design flip-flops are connected into a daisy chain manner with a full controllability and observability from primary inputs and outputs. In this part of the research work, different algorithms are developed to provide an automated and optimal solution during the generation of an RTL scan architecture where several parameters are considered: area, test time and power consumption in full compliance with functional performance. This problem has been modelled as the search for short chains in a weighted graph. The solution methods used are based on finding minimal length Hamiltonian chains. This work was accomplished in collaboration with DeFacTo Technologies, an EDA start-up close to Grenoble. The third part deals with the problem of sharing BIST (Built In Self Test) blocks for testing memories. The problem can be formulated as follows: given the memories with various types and sizes, and sharing rules for series and parallel wrappers, we have to identify solutions to the problem by associating a wrapper with each memory. The solution should minimize the surface, the power consumption and test time of IC. To solve this problem, we designed a prototype called Memory BIST Optimizer (MBO). It consists of two steps of resolution and a validation phase. The first step creates groups of compatibility in accordance with the rules of abstraction and sharing that depend on technologies. The second phase uses genetic algorithms for multi-objective optimization in order to obtain a set of non dominated solutions. Finally, the validation verifies that the solution provided is valid. In addition, it displays all solutions through a graphical or textual interface. This allows the user to choose the solution that fits best. The tool MBO is currently integrated into an industrial flow within ST-microelectronics
APA, Harvard, Vancouver, ISO, and other styles
14

Boussif, Abderraouf. "Contributions to model-based diagnosis of discrete-event systems." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10144/document.

Full text
Abstract:
L’objet de cette thèse porte sur le diagnostic des systèmes à évènements discrets modélisés par des automates à états finis, avec une extension vers les réseaux de Petri bornés et étiquetés. Les différentes contributions de ce travail peuvent être présentées selon deux volets, au regard des approches pionnières existantes dans la littérature: le diagnostic à base de diagnostiqueur, et le diagnostic à base de twin-plant.Sur le premier volet, i.e., le diagnostic à base de diagnostiqueur, nous proposons :- Une variante du diagnostiqueur avec une nouvelle structure qui nous permet de : (i) formuler une nouvelle condition nécessaire et suffisante pour l'analyse de la diagnosticabilité des fautes permanentes, (ii) développer une procédure systématique pour l'analyse de la diagnosticabilité (iii) établir un algorithme à-la-volée pour construire le diagnostiqueur et analyser la diagnosticabilité en parallèle.- Une extension de notre diagnostiqueur pour traiter des fautes intermittentes. - Une version hybride de notre diagnostiqueur, pour analyser la diagnosticabilité des réseaux de Petri bornés et étiquetés.Sur le deuxième volet, i.e., le diagnostic à base de twin-plant, nous proposons de nouvelles techniques pour l’analyse de diagnosticabilité de fautes permanentes et intermittentes dans le cadre de vérification par model-checking. Ainsi, la performance des techniques de model-checking et des outils associés peut être exploitée pour traiter des questions de diagnostic
This PhD thesis deals with fault diagnosis of discrete-event systems modeled as finite state automata with some extensions to bounded Petri net models. The developed contributions can be classified regarding two pioneering approaches from the literature: the diagnoser-based technique and the twin-plant based technique. Regarding the diagnoser-based technique, we propose a new diagnoser variant with some interesting features that allow us to reformulate a necessary and sufficient condition for diagnosability of permanent faults and propose a systematic procedure for checking such a condition without building any intermediate model. An on-the-fly algorithm, for simultaneously constructing the diagnoser and verifying diagnosability is then developed. The established diagnoser is then extended to deal with fault diagnosis of intermittent faults. A Hybrid version (in the sense of combining enumerative and symbolic representations) of our diagnoser is also established in order to deal with fault diagnosis of labeled bounded Petri nets. The developed approaches are implemented in dedicated tools and evaluated through benchmarks with respect to the reference approaches in the domain.Regarding twin-plant based technique, our contribution consists in elaborating a model-checking framework that extends the Cimatti’s work for the actual verification of various diagnosability concepts pertaining to permanent and intermittent failures based on the twin-plant structure. The main idea is to reformulate and express the diagnosability issues as temporal logics and then to tackle them using the model-checking engines
APA, Harvard, Vancouver, ISO, and other styles
15

Goaoc, Xavier. "Nombres de Helly, théorèmes d'épinglement et projection de complexes simpliciaux." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00650204.

Full text
Abstract:
La résolution efficace de certaines questions de géométrie algorithmique, par exemple les calculs de visibilité ou l'approximation de forme, soulève de nouvelles questions de géométrie des droites, domaine classique dont l'origine remonte à la seconde moitié du 19e siècle. Ce mémoire s'inscrit dans ce cadre, et étudie les nombres de Helly de certains ensembles de droites, un indice reliée à certains théorèmes de la base apparaissant en optimimisation combinatoire. Formellement, le nombre de Helly d'une famille d'ensembles d'intersection vide est le cardinal de sa plus petite sous-famille d'intersection vide et minimale pour l'inclusion relativement à cette propriété. En 1957, Ludwig Danzer a formulé la conjecture que pour tout $d \ge 2$ il existe une constante $h_d$ telle que pour toute famille $\{B_1, \ldots, B_n\}$ de boules deux à deux disjointes et de même rayon, le nombre de Helly de $\{T(B_1), \ldots, T(B_n)\}$ est au plus $h_d$; ici, $T(B_i)$ désigne l'ensemble des droites coupant $B_i$. Danzer a, de plus, spéculé que la constante $h_d$ (minimale) croît strictement avec $d$. Nous prouvons que de telles constantes existent, et que $h_d$ est au moins $2d-1$ et au plus $4d-1$ pour tout $d \ge 2$. Cela prouve la première conjecture et étaye la seconde. Nous introduisons, pour étudier les conjectures de Danzer, un analogue local du nombre de Helly que nous appellons nombre d'épinglement et qui se rattache à la notion d'immobilisation étudiée en robotique. Nous montrons que le nombre d'épinglement est borné pour toute famille (suffisament générique) de polyèdres ou d'ovaloides de $R^3$, deux cas où les nombres de Helly peuvent être arbitrairement grands. Un théorème de Tverberg énonce que si $\{B_1, \ldots, B_n\}$ est une famille de convexes du plan disjoints et congruents par translation alors le nombre de Helly de $\{T(B_1), \ldots, T(B_n)\}$ est au plus $5$. Quoique relativement différentes, notre preuve et celle de Tverberg exploitent toutes deux le fait que toute intersection d'au moins deux $T(B_i)$ a un nombre borné de composantes connexes, chacune contractile. Par des considérations sur l'homologie de projections de complexes et d'ensembles simpliciaux, nous unifions ces deux preuves et montrons que cette condition topologique suffit à établir une borne explicite sur le nombre de Helly.
APA, Harvard, Vancouver, ISO, and other styles
16

Chaussard, John. "Topological tools for discrete shape analysis." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00587411.

Full text
Abstract:
L'analyse d'images est devenue ces dernières années une discipline de plus en plus riche de l'informatique. La topologie discrète propose un panel d'outils incontournables dans le traitement d'images, notamment grâce à l'outil du squelette, qui permet de simplifier des objets tout en conservant certaines informations intactes. Cette thèse étudie comment certains outils de la topologie discrète, notamment les squelettes, peuvent être utilisés pour le traitement d'images de matériaux.Le squelette d'un objet peut être vu comme une simplification d'un objet, possédant certaines caractéristiques identiques à celles de l'objet original. Il est alors possible d'étudier un squelette et de généraliser certains résultats à l'objet entier. Dans une première partie, nous proposons une nouvelle méthode pour conserver, dans un squelette, certaines caractéristiques géométriques de l'objet original (méthode nécessitant un paramètre de filtrage de la part de l'utilisateur) et obtenir ainsi un squelette possédant la même apparence que l'objet original. La seconde partie propose de ne plus travailler avec des objets constitués de voxels, mais avec des objets constitués de complexes cubiques. Dans ce nouveau cadre, nous proposons de nouveaux algorithmes de squelettisation, dont certains permettent de conserver certaines caractéristiques géométriques de l'objet de départ dans le squelette, de façon automatique (aucun paramètre de filtrage ne doit être donné par l'utilisateur). Nous montrerons ensuite comment un squelette, dans le cadre des complexes cubiques, peut être décomposé en différentes parties. Enfin, nous montrerons nos résultats sur différentes applications, allant de l'étude des matériaux à l'imagerie médicale
APA, Harvard, Vancouver, ISO, and other styles
17

Galstyan, Anzhela [Verfasser], Bernhard [Akademischer Betreuer] Lippert, and Jens [Gutachter] Müller. "Discrete supramolecular metal complexes : Synthesis, structures, host-guest chemistry with anions, and DNA binding properties / Anzhela Galstyan. Betreuer: Bernhard Lippert. Gutachter: Jens Müller." Dortmund : Universitätsbibliothek Dortmund, 2011. http://d-nb.info/1103472453/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Miguel, Baños Narcís. "Transport phenomena and anomalous diffusion in conservative systems of low dimension." Doctoral thesis, Universitat de Barcelona, 2016. http://hdl.handle.net/10803/400611.

Full text
Abstract:
Apart from this introductory chapter, the contents of the thesis is splitted among four more chapters. Chapters 2, 3 and 4 deal with the planar case, while chapter 5 deals with the 3D volume preserving case. More specifically, - In Chap. 2 we start by considering conservative quadratic Hénon maps (both orientation preserving and orientation reversing cases). First, we study the main features of the domain of stability of these two maps, mainly from the point of view of the area that they occupy, and how it does evolve as parameters change. To be as exhaustive as possible, we review the theory that allows to explain what one can observe in the phase space of these maps. We finish the chapter by considering the Chirikov standard map (1.13) in the 2-torus T2 for large values of the parameter, k ≥ 1. The most prominent sources of regular area in this setting are accelerator modes that appear periodically in k, and scaled somehow. We give numerical evidence of such a scaling, and guided by the experimental evidence, we derive limit representations for the dynamics in some compact set containing these islands, which turn out to be conjugated to the orientation preserving quadratic Hénon map or conjugated to the square of the orientation reversing quadratic Hénon map. Some of these islands are the accelerator modes we checked that appeared in Sect. 1.3. This motivates the following chapter. - Chap. 3 is devoted to study the role of these islands of stability that ’jump’ when the standard map is considered in the cylinder. The stability domain of these islands is determined and studied independently from the standard map Mk in Chap. 2, and is recovered in some regions in the phase space of Mk under suitable scalings. We focus in two main observables: the squared mean displacement of the action under iteration of Mk and the trapping time statistics. We study them both in an adequate range of the parameters, where we can see the effect of considering more and more iterations and the fact that we change parameters and the size of the gaps of a Cantorus change. We provide evidence of the fact that the trapping time statistics behave as the superposition of the effect of two distinctive phenomena: the one of the stickiness, detected as power-law statistics, and the one of the outermost Cantorus, detected as bumps. These bumps change their position in the time axis accordingly to the change of the size of the largest gap in the Cantorus. First, assuming that the stickiness effect gives rise to power law statistics with a certain value of the exponent, and under some other mild conditions (that also are suggested by the simulations), we are able to give a lower bound on the growth of the mean squared displacement of the actions. This is the way these two phenomena are related to each other in this context. Then, the fact that we can identify the source of the bumps as being due to the effect of the outermost Cantorus, motivates the topic of the next chapter: studying this effect by its own in a proper context. - In Chap. 4 we return to the Chirikov standard map, but for values of the parameter close to the destruction of the last RIC, that is, for value of the parameter close but larger than k(G) and approaching it from above. In this setting, we study escape rates across this Cantorus, and we deal with this problem from two different points of view. First, as k decreases to k(G). In this setting, it is known that the mean escape ratio across the Cantorus, that we will denote as hNki, behaves essentially as (k−kG)−B,B ≈ 3. The Greene-MacKay renormalisation theory, and the interpretation of DeltaW as an area justify that, in fact, hNki (k − kG)B should eventually be periodic in a suitable logarithmic scale, as k → kG. In this chapter we give the first evidence of the shape of this periodic behaviour, and perform a numerical study of a region surrounding the Cantorus that allows to give a first (partial) explanation of it. Second, we consider a problem related to the previous topic but for each fixed value of k: the probability that an orbit crosses the Cantorus in a prescribed time. We explain how to compute these statistics, and we show that in logarithmic scale in the number of iterates, as k → kG, they seem to behave the same way, but shifted in this log-scale in time. - Finally, Chap. 5 is devoted to study the stickiness problem in the 3D volume preserving setting. To do so, a map inspired in the Standard map is constructed following the scheme in Sect. 1.3. This map depends on various parameters, one of them, say ε, being a distance-to-integrable one. The map is considered in such a way that: 1. Invariant tori subsist until moderate values of ε, and 2. At integer values of the parameter the origin becomes an accelerator mode, and that exactly at integer values it undergoes a Hopf-Saddle-Node bifurcation, giving rise to a stability bubble. The normal form of the unfolding of this bifurcation justifies that, in fact, there are just two relevant parameters (since it is a co-dimension 2 bifurcation). An analysis inspired in that of Chap. 3 is performed by fixing one of them. Also in this case one can observe a power law decay of the trapping time statistics, but with slightly different values of the exponent in different ranges of the number of iterates. Preliminary results of more massive simulations seem to indicate that the effect decreases as the number of iterates increases.
APA, Harvard, Vancouver, ISO, and other styles
19

Ndiaye, Moulaye Aidara. "Aide à la décision pour la conception et la gestion de systèmes de transport automatisés complexes." Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-02877296.

Full text
Abstract:
La fabrication de semi-conducteurs est un processus long et très complexe avec de nombreuses contraintes. Le processus de fabrication d'un lot peut durer plusieurs mois avec plusieurs centaines d'opérations. Plusieurs milliers de lots doivent ainsi être transportés et stockés en permanence. Un système de transport efficace est par conséquent critique pour garantir que les centaines de machines dans l'usine sont livrées dans les temps.Cette thèse s'intéresse à la modélisation et à l'optimisation d'un système de transport et destockage automatisé (AMHS) dans une unité moderne de fabrication de semi-conducteurs. Différentes problématiques ont été étudiées. La première a visé à analyser l'impact de paramètres clés de l'AMHS et à proposer de nouvelles approches pour déterminer ces paramètres clés. Un modèle de simulation a permis de valider les résultats obtenus. La deuxième problématique a porté sur la gestion de situations de crises liées à une ou plusieurs pannes sur le réseau, avec pour objectif de minimiser les perturbations sur le fonctionnement de l'AMHS. La dernière problématique concerne la conception d'un nouvel AMHS pour le transport de ressources auxiliaires dans un atelier spécifique.Ces travaux de thèse ont été réalisés dans le cadre d'une convention CIFRE entre l'Ecole des Mines de Saint-Étienne et le site de Crolles de STMicroelectronics. Les approches scientifiques proposées ont conduit à plusieurs applications industrielles en cours d'utilisation
The manufacturing of semiconductors is a long and very complex process with many constraints. The process of manufacturing a lot can last several months with several hundred operations. Several thousand lots must be transported and stored permanently. An efficient transportation system is therefore critical to ensure that the hundreds of machines in the factory are delivered on time.This thesis focuses on the modeling and optimization of a transport and automated storage (AMHS) system in a modern semiconductor manufacturing unit.Different issues have been studied. The first aimed to analyze the impact of key parameters of the AMHS system and to propose new approaches to determine these key parameters. A simulation model has allowed to validate the results obtained. The second issue focused on the management of crisis situations related to one or more failures on the network, with the aim of minimizing disruption to the operation of the AMHS system. The last issue concerns the design of a new AMHS system for the transportation of auxiliary resources in a specific workshop.These thesis work was carried out within the framework of a CIFRE agreement between the Ecole des Mines de Saint-Etienne and the Crolles site of STMicroelectronics. The proposed scientific approaches have led to several industrial applications in use
APA, Harvard, Vancouver, ISO, and other styles
20

Toma, Samuel. "Méthodologie de détection et d'identification des défauts multiples dans les systèmes complexes à partir d'évènements discrets et de réseaux de neurones : applications aux aérogénérateurs." Thesis, Corte, 2014. http://www.theses.fr/2014CORT0006/document.

Full text
Abstract:
L'étude présentée dans ce mémoire concerne le diagnostic des machines électriques à l'aide d'une association innovante entre la modélisation à évènements discrets, la Simulation Comparative et Concurrente (SCC) et les Réseaux de Neurones Artificiels (RNAs). Le diagnostic des machines électriques est effectué à partir d'une analyse temporelle des signaux statoriques et rotoriques à l'aide de réseaux de neurones de type Feed-Forward. Afin de comparer les différentes configurations de ces réseaux de neurones, l'approche proposée dans ce document utilise la simulation comparative et concurrente implémentée grâce au formalisme à évènements discrets DEVS (Discrete EVent system Specification). L'intégration des algorithmes de la SCC et des RNAs au sein du formalisme DEVS a été effectuée de manière générique et indépendamment du simulateur en développent des extensions et une librairie de modèles dans l'environnement de modélisation et de simulation à évènements discrets DEVSimPy. L'application de cette nouvelle solution pour le diagnostic des machines électriques permet de détecter les défauts à partir d'une architecture logiciel facilement portable sur des systèmes embarqués de type FPGA
This thesis deals with the time-domain analysis of the electrical machines fault diagnosis due to early short-circuits detection in both stator and rotor windings. It also introduces to the Discrete EVent system Specification (DEVS) a generic solution to enable concurrent and comparative simulations (CCS). The DEVS-based CCS is an extension introduced using an aspect-oriented programming (AOP) to interact with the classic DEVS simulator. A new DEVS-based artificial neural network (ANN) is also introduced with a separation between learning and calculation models. The DEVS-based CCS is validated on the proposed ANN DEVS library inside the DEVSimPy environment. The concurrent ANN contributes in the time-domains analysis for the electrical machine fault diagnosis. This new method is based on data coming directly from the sensors without any computation but with a new dedicated preprocessing technique. Later, some enhancements are brought to the artificial neural network based on a new multistage architecture reducing the training time and errors compared to the single ANN. The new architecture and techniques has been validated on real data sixteen non-destructive windings faults analysis and localization
APA, Harvard, Vancouver, ISO, and other styles
21

Li, Ben. "Diagnostic et Diagnosticabilité des Systèmes à Evénements Discrets Complexes Modélisés par des Réseaux de Petri Labellisés." Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0004/document.

Full text
Abstract:
Cette thèse porte sur le diagnostic des systèmes à événements discrets modélisés par des Réseaux de Petri labellisés (RdP-L). Les problèmes de diagnostic monolithique et de diagnostic modulaire sont abordés. Des contributions sont proposées pour résoudre les problèmes d'explosion combinatoire et de complexité de calcul. Dans le cadre de l'analyse de la diagnosticabilité monolithique, certaines règles de réduction sont proposées comme un complément pour la plupart des techniques existantes de l'analyse de la diagnosticabilité, qui simplifient le modèle RdP-L tout en préservant sa propriété de diagnosticabilité. Pour un RdP-L sauf et vivant, une nouvelle condition suffisante pour la diagnosticabilité est proposée. Pour un RdR-L borné et non bloquant après l'occurrence d'une faute, l'analyse à-la-volée est améliorée en utilisant la notion d'explications minimales qui permettent de compacter l'espace d'état ; et en utilisant des T-semiflots pour trouver rapidement un cycle indéterminé. Une analyse à-la-volée utilisant Verifier Nets (VN) est proposée pour analyser à la fois les RdP-L bornés et non-bornés, ce qui permet d'obtenir un compromis entre efficacité du calcul et limitation des explosions combinatoires. Dans le cadre de l'analyse de la diagnosticabilité modulaire, une nouvelle approche est proposée pour les RdP-Ls décomposés. Les règles de réduction, qui préservent la propriété de la diagnosticabilité modulaire, sont appliquées pour simplifier le modèle initial. La diagnosticabilité locale est analysée en construisant le VN et le Graphe d'Accessibilité Modifié (MAG) du modèle local. La diagnosticabilité modulaire est vérifiée en construisant la composition parallèle du MAG et des graphes d'accessibilités d'autres modules du système. La complexité de calcul est inférieure à celles des autre approches dans la littérature. D'autre part, l'explosion combinatoire est également réduite en utilisant la technique de ε-réduction
This thesis deals with fault diagnosis of discrete event systems modeled by labeled Petri nets (LPN). The monolithic diagnosability and modular diagnosability issues are addressed. The contributions are proposed to reduce the combinatorial explosion and the computational complexity problems. Regarding monolithic diagnosability analysis, some reduction rules are proposed as a complement for most diagnosability techniques, which simplify the LPN model and preserve the diagnosability property. For a safe and live LPN, a new sufficient condition for diagnosability is proposed. For a bounded LPN that does not deadlock after a fault, the on-the-fly diagnosability analysis is improved by using minimal explanations to compact the state space; and by using T-invariants, to find quickly an indeterminate cycle. An on-the-fly diagnosability analysis using Verifier Nets (VN) is proposed to analyze both bounded and unbounded LPN, which achieves a compromise between computation efficiency and combinatorial explosion limitation. Regarding modular diagnosability analysis, a new approach is proposed for decomposed LPNs model. Reduction rules, that preserve the modular diagnosability property, are applied to simplify the model. The local diagnosability is analyzed by building the VN and the Modified Reachability Graph (MRG) of the local model. The modular diagnosability is verified by building the parallel composition of the MRG and the reachability graphs of other modules of the system. We prove in this study that the computational complexity of our approach is lower than existing approaches of literature. The combinatorial explosion is also reduced by using the ε -reduction technique
APA, Harvard, Vancouver, ISO, and other styles
22

Abarenkova, Nina. "Etudes de systèmes intégrables ou de complexes faibles, en physique du solide et systèmes dynamiques discrets." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10068.

Full text
Abstract:
Cette these reunit deux directions d'etude des systemes integrables : le calcul des fonctions de correlation dans le contexte de la physique du solide (en utilisant l'ansatz de bethe a deux composantes) et l'etude de transformations birationnelles dans le contexte des systemes dynamiques discrets. Le calcul analytique ainsi que plusieurs methodes numeriques sont employes. Ce document est organise en deux parties independantes. Dans la premiere partie, une methode de calcul analytique des fonctions de correlations, sous la forme d'un determinant de fredholm pour le modele de hubbard dans la limite u , et pour le modele correspondant d'echelle de spins, est presentee. Un ensemble de formules exactes est donne. La deuxieme partie est consacree a l'etude de systemes dynamiques discrets associes a des transformations birationnelles. Des classifications exhaustives, effectuees pour des ensembles tres larges de transformations birationnelles, ont permis de voir l'extraordinaire rarete des transformations integrables et la repartition effective de quantites mesurant la complexite des transformations. Sur l'exemple d'une famille de transformations non hyperboliques de deux variables nous avons donne tout un faisceau d'arguments convergeant vers une identification exacte de l'exponentielle de l'entropie topologique (associee a la fonction zeta dynamique) et du caracterisant la croissance exponentielle de la complexite de arnold. Cette egalite semble s'etendre au cas, ou les transformations sont vues comme des transformations portant sur des variables reelles. Des calculs d'exposants de lyapounov nous ont enfin permis de comparer l'entropie topologique reelle et l'entropie metrique.
APA, Harvard, Vancouver, ISO, and other styles
23

Ricciardi, Celsi Lorenzo. "Commande non linéaire multi-agents : applications aux systèmes en réseau." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS017/document.

Full text
Abstract:
L'objectif de cette thèse de doctorat est (i) d'étudier et de développer des méthodes d’analyse et de commande de systèmes de contrôle en réseau linéaires et non linéaires et (ii) de montrer le potentiel de ces approches dans des applications complexes pertinentes. À cet égard, la théorie des systèmes à plusieurs agents, la théorie des graphes algébriques et le consensus sont des outils méthodologiques les plus intéressants. Une attention particulière est accordée à la caractérisation des relations entre, d'une part, la topologie du graphe de communication qui sous-tend l'évolution du système à plusieurs agents considéré et, d'autre part, les propriétés spectrales de la matrice Laplacienne associée au graphe lui-même. Le contrôle d'un groupe d'agents autonomes est étudié sous différents angles. Le principal objectif de contrôle est de s’assurer que les agents travaillent ensemble de manière coopérative, où la coopération représente la relation étroite entre tous les agents de l'équipe, le partage de l'information jouant un rôle important. En particulier, beaucoup de problèmes de consensus/accord/ synchronisation /rendez-vous sont étudiés afin de guider un groupe d’agents vers un état commun. Le consensus est étudié dans un contexte à temps discret parce que la dynamique du système est en général continue alors que les mesures et les entrées de contrôle sont des données échantillonnées. En outre, la théorie des jeux est utilisée pour faire face aux problèmes de coordination distribués à plusieurs agents, avec une application aux réseaux connus sous le nom de Software Defined Networks. À cet égard, on peut montrer que, sous des protocoles correctement conçus, les joueurs convergent vers un équilibre unique de Wardrop. On concentre l’attention sur le contrôle distribué, car cette approche présente des avantages évidents par rapport à la centralisation, comme l'évolutivité et la robustesse. Pourtant, le contrôle distribué a également ses propres inconvénients : avant tout, un inconvénient est que chaque agent ne peut pas prédire efficacement le comportement global du groupe en se basant uniquement sur des informations locales. Une certaine attention est également accordée à la nécessité de sécuriser les réseaux électriques contre le danger des attaques cyber-physiques grâce au développement de technologies d'intelligence distribuée. À cet égard, sur la base de topologies de réseaux d'énergie réalistes, nous présentons brièvement la conception d'un schéma de protection contre les attaques dynamiques à un point et à points multiples en boucle fermée. Nous formulons et résolvons un problème d'optimisation non convexe soumis à une contrainte de stabilité de Lyapunov pour la représentation à plusieurs agents autonome d'un réseau électrique obtenue après la linéarisation et l'application des lois d’attaque et de contrôle de fréquence. Finalement, nous présentons des résultats obtenus sur : le pilotage exact de la dynamique non linéaire finie à données échantillonnées avec des retards sur les entrées, au sujet de la stabilisation à données échantillonnées et de la poursuite de l'orbite quasi-halo autour du point de libration translunaire L₂, et au sujet des algorithmes heuristiques basés sur des méthodes d'apprentissage par renforcement à plusieurs agents capables d'effectuer un contrôle adaptatif optimal de qualité de service / qualité de l’expérience dans des scénarios sans modèle
The objective of this PhD thesis is (i) to investigate and develop methods for the analysis and design of linear and nonlinear networked control systems and (ii) to show the potential of such approaches in relevant complex applications. In this respect, multi-agent systems theory, algebraic graph theory and consensus are the most interesting methodological tools, and specific attention is paid to the characterization of the relationships between, on the one hand, the topology of the communication graph that underlies the evolution of the considered multiagent system and, on the other hand, the spectral properties of the Laplacian matrix associated with the graph itself. The control of a group of autonomous agents is investigated from different perspectives. The main control objective is to make sure that the agents work together in a cooperative fashion, where cooperation accounts for the close relationship among all agents in the team, with information sharing playing an important role. In particular, various problems regarding consensus/agreement/synchronization/rendezvous are investigated with the specific aim of driving a group of agents to some common state. Consensus is investigated in a discrete-time setting due to the fact that the system dynamics is normally continuous while the measurements and control inputs might only be made in a sampled-data setting. Moreover, game theory is relied upon in order to cope with distributed multi-agent coordination problems, with application to Software Defined Networks. In this respect, it can be shown that, under properly designed protocols, the players converge to a unique Wardrop equilibrium. We focus on distributed control, since this approach shows obvious benefits over centralization, such as scalability and robustness. Yet, it also has its own drawbacks: among all, one drawback is that each agent cannot effectively predict the overall group behaviour based on only local information. Some attention is also devoted to the need for securing power grids against the danger of cyber-physical attacks through the development of distributed intelligence technologies accompanied by appropriate security enforcements. In this respect, based on realistic power network topologies, we briefly present the design of a protection scheme against closed-loop single-point and multi-point dynamic load altering attacks. This is done by formulating and solving a non-convex optimization problem subject to a Lyapunov stability constraint for the autonomous multiagent representation of a power system obtained after linearization and application of the attack and frequency control laws. Eventually, we show some other results achieved in terms of the exact steeering of finite sampled nonlinear dynamics with input delays, of sampled-data stabilization and quasi-halo orbit following around the L₂ translunar libration point, and of heuristic algorithms based on multi-agent reinforcement learning methods capable of performing optimal adaptive Quality of Service/Quality of Experience control in model-free scenarios
APA, Harvard, Vancouver, ISO, and other styles
24

Silva, Ricardo Dutra da 1982. "Discrete Morse complex of images = algorithms, modeling and applications = Complexo discreto de Morse para imagens: algoritmos, modelagem e aplicações." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275606.

Full text
Abstract:
Orientador: Hélio Pedrini
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-24T00:14:20Z (GMT). No. of bitstreams: 1 Silva_RicardoDutrada_D.pdf: 13549105 bytes, checksum: 3d49e5116a70a72601ba4cc3b3c85762 (MD5) Previous issue date: 2013
Resumo: A Teoria de Morse é importante para o estudo da topologia em funções escalares como elevação de terrenos e dados provenientes de simulações físicas, a qual relaciona a topologia de uma função com seus pontos críticos. A teoria contínua foi adaptada para dados discretos através de construções como os complexos de Morse-Smale e o complexo discreto de Morse. Complexos de Morse têm sido aplicados em processamento de imagens, no entanto, ainda existem desafios envolvendo algoritmos e considerações práticas para a computação e modelagem dos complexos para imagens. Complexos de Morse podem ser usados como um meio de definir a conexão entre pontos de interesse em imagens. Normalmente, pontos de interesse são considerados como elementos independentes descritos por informação local. Tal abordagem apresenta limitações uma vez que informação local pode não ser suficiente para descrever certas regiões da imagem. Pontos de mínimo e máximo são comumente utilizados como pontos de interesse em imagens, os quais podem ser obtidos a partir dos complexos de Morse, bem como sua conectividade no espaço de imagem. Esta tese apresenta uma abordagem dirigida por algoritmos e estruturas de dados para computar o complexo de Morse discreto em imagens bidimensionais. A construção é ótima e permite fácil manipulação do complexo. Resultados teóricos e experimentais são apresentados para mostrar que o método é eficaz. Experimentos realizados incluem a computação de homologia persistente e hierarquias de complexos sobre dados de elevação de terrenos. Outra contribuição é a proposição de um operador topológico, chamado Contexto Local de Morse, computado sobre complexos de Morse, para extrair vizinhanças de pontos de interesse para explorar a informação estrutural de imagens. O contexto local de Morse é usado no desenvolvimento de um algoritmo que auxilia a redução do número de casamentos incorretos entre pontos de interesse e na obtenção de uma medida de confiança para tais correspondências. A abordagem proposta é testada em pares de imagens sintéticas e de imagens subaquáticas, para as quais métodos existentes podem obter muitas correspondências incorretas
Abstract: The Morse theory is important for studying the topology of scalar functions such as elevation of terrains and data from physical simulations, which relates the topology of a function to critical points. The smooth theory has been adapted to discrete data through constructions such as the Morse-Smale complexes and the discrete Morse complex. Morse complexes have been applied to image processing, however, there are still challenges involving algorithms and practical considerations for computation and modeling of the complexes. Morse complexes can be used as means of defining the connectedness of interest points in images. Usually, interest points are considered as independent elements described by local information. Such an approach has its limitations since local information may not suffice for describing certain image regions. Minimum and maximum points are widely used as interest points in images, which can be obtained from Morse complexes, as well as their connectivity in the image space. This thesis presents an algorithmic and data structure driven approach to computing the discrete Morse complex of 2-dimensional images. The construction is optimal and allows easy manipulation of the complex. Theoretical and applied results are presented to show the effectiveness of the method. Applied experiments include the computation of persistent homology and hierarchies of complexes over elevation terrain data. Another contribution is the proposition of a topological operator, called Local Morse Context (LMC), computed over Morse complexes, for extracting neighborhoods of interest points to explore the structural information in images. The LMC is used in the development of a matching algorithm, which helps reducing the number of incorrect matches between images and obtaining a confidence measure of whether a correspondence is correct or incorrect. The approach is tested in synthetic and challenging underwater stereo pairs of images, for which available methods may obtain many incorrect correspondences
Doutorado
Ciência da Computação
Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
25

Gonzalez, Lorenzo Aldo. "Computational homology applied to discrete objects." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4073/document.

Full text
Abstract:
La théorie de l'homologie formalise la notion de trou dans un espace. Pour un sous-ensemble de l'espace Euclidien, on définit une séquence de groupes d'homologie, dont leurs rangs sont interprétés comme le nombre de trous de chaque dimension. Ces groupes sont calculables quand l'espace est décrit d'une façon combinatoire, comme c'est le cas pour les complexes simpliciaux ou cubiques. À partir d'un objet discret (un ensemble de pixels, voxels ou leur analogue en dimension supérieure) nous pouvons construire un complexe cubique et donc calculer ses groupes d'homologie.Cette thèse étudie trois approches relatives au calcul de l'homologie sur des objets discrets. En premier lieu, nous introduisons le champ de vecteurs discret homologique, une structure combinatoire généralisant les champs de vecteurs gradients discrets, qui permet de calculer les groupes d'homologie. Cette notion permet de voir la relation entre plusieurs méthodes existantes pour le calcul de l'homologie et révèle également des notions subtiles associés. Nous présentons ensuite un algorithme linéaire pour calculer les nombres de Betti dans un complexe cubique 3D, ce qui peut être utilisé pour les volumes binaires. Enfin, nous présentons deux mesures (l'épaisseur et l'ampleur) associés aux trous d'un objet discret, ce qui permet d'obtenir une signature topologique et géométrique plus intéressante que les simples nombres de Betti. Cette approche fournit aussi quelques heuristiques permettant de localiser les trous, d'obtenir des générateurs d'homologie ou de cohomologie minimaux, d'ouvrir et de fermer les trous
Homology theory formalizes the concept of hole in a space. For a given subspace of the Euclidean space, we define a sequence of homology groups, whose ranks are considered as the number of holes of each dimension. Hence, b0, the rank of the 0-dimensional homology group, is the number of connected components, b1 is the number of tunnels or handles and b2 is the number of cavities. These groups are computable when the space is described in a combinatorial way, as simplicial or cubical complexes are. Given a discrete object (a set of pixels, voxels or their analog in higher dimension) we can build a cubical complex and thus compute its homology groups.This thesis studies three approaches regarding the homology computation of discrete objects. First, we introduce the homological discrete vector field, a combinatorial structure which generalizes the discrete gradient vector field and allows to compute the homology groups. This notion allows to see the relation between different existing methods for computing homology. Next, we present a linear algorithm for computing the Betti numbers of a 3D cubical complex, which can be used for binary volumes. Finally, we introduce two measures (the thickness and the breadth) associated to the holes in a discrete object, which provide a topological and geometric signature more interesting than only the Betti numbers. This approach provides also some heuristics for localizing holes, obtaining minimal homology or cohomology generators, opening and closing holes
APA, Harvard, Vancouver, ISO, and other styles
26

Nguyen, Minh-Duc. "Modélisation numérique discrète des matériaux bitumeux." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSET003/document.

Full text
Abstract:
Les enrobés bitumineux ont été utilisés habituellement dans des constructions routières et récemment sous les ballasts des ferroviaires. Sa grande rigidité aux températures relativement basses de l’ambiance et à haute fréquence explique son application répandue en Europe du nord. Ce matériau a été étudié au niveau global par à la fois des essais empiriques, expérimentaux et des approches analytiques. Pourtant, l’enrobé bitumineux possède un structure interne hétérogène et complexe qui peut-être engendrer des comportements complexe. Les analyses au niveau local permettent alors de compléter les connaissances de ses comportements.De nos jours, la méthode des éléments discrets est connue comme un outil numérique répandu dans le domaine granulaire. Elle peut modéliser son comportement à travers des modèles locaux et fournir des informations de sa structure interne. Une part, cette méthode considère que les particules sont quasi-solides. Son déplacement est régi par les lois de mouvement. L’autre part, le chevauchement au niveau de contact entre particules est admis. L’interpénétration des particules est calculée par les lois de contact locaux associées. Cette thèse constitue une maquette numérique des enrobés bitumineux dont les particules isolées s’interagissent à travers des lois d’interaction à distance. Cette maquette prend en compte la granulométrie des granulats (>1mm) et son rapport volumique vis-à-vis du mastic constitué par des grains (<1mm), le liant et des vides. Les granulats (>1mm) seuls sont modélisés par des particules numériques, tandis que du mastic est pris en compte par des lois d’interaction. Au premier lieu, une simulation élastique est réalisée afin de reproduire des comportements asymptotiques élastiques d’un enrobé bitumineux de référence de type GB3 qui apparaissent lors des conditions extrêmes (fréquence ou température). Des lois d’interaction élastiques ont appliqué à la maquette numérique créée. Sur deux directions normale et tangentielles, les raideurs du ressort et leur rapport sont constantes.Ensuite, les simulations viscoélastiques sont réalisées pour reproduire le comportement viscoélastique du même matériau de référence. Au premier temps, une loi d’interaction de type Kelvin-Voigt est utilisée pour mettre en évidence qualitativement l’application d’une loi viscoélastique. Ensuite, le comportement viscoélastique globale est modélisé à niveau des particules par quelques lois d’interaction de type 1KV1R (un Kelvin-Voigt et un ressort en série) repartant au réseau d’interaction de la maquette numérique. Les raideurs des ressorts prenant en compte la géométrie de l’interface de particules sont constantes pour toutes les modèle de 1KV1R. Cependant, des viscosités des amortisseurs sont différentes. Certaines hypothèses sont examinées pour distribuer ses viscosités dans le réseau d’interaction. A la fin des études, les analyses des efforts internes sont réalisées
Bituminous mixtures have traditionally been used in road constructions and recently under railway ballast. Its high rigidity at relatively low ambient temperatures and high frequency explains its widespread application in northern Europe. This material has been studied at the global level by both empirical, experimental and analytical approaches. However, the asphalt has a heterogeneous internal structure and complex which may cause complex behavior. The analysis at the local level then make it possible to supplement the knowledge of its behaviors.Nowadays, the method of discrete elements is known as a numerical tool spread in the granular field. It can model its behavior through local models and provide information about its internal structure. On the one hand, this method considers that the particles are quasi-solid. Its displacement is governed by the laws of motion. On the other hand, the overlap at the particle contact level is allowed. The interpenetration of the particles is calculated by the associated local contact laws. This thesis constitutes a numerical model of bituminous mixes whose isolated particles interact through laws of interaction at a distance. This model takes into account the granulometry of the aggregates (> 1 mm) and its volume ratio with respect to the mastic constituted by grains (<1 mm), the binder and voids. The aggregates (> 1 mm) alone are modeled by numerical particles, while mastic is taken into account by laws of interaction.First, an elastic simulation is performed in order to reproduce the elastic asymptotic behaviors of a reference bituminous mix of GB3 type that appear during extreme conditions (frequency or temperature). Elastic interaction laws have applied to the created numerical model. In both normal and tangential directions, the stiffness of the spring and its ratio are constant.Then, the viscoelastic simulations are performed to reproduce the viscoelastic behavior of the same reference material. At first, a Kelvin-Voigt interaction law is used to qualitatively highlight the application of a viscoelastic law. Then, the global viscoelastic behavior is modeled at the level of the particles by some laws of interaction of type 1KV1R (a Kelvin-Voigt and a spring in series) leaving again to the network of interaction of the numerical model. The stiffness of the springs taking into account the geometry of the particle interface is constant for all models of 1KV1R. However, the viscosities of the dashpots are different. Some hypotheses are examined to distribute its viscosities in the interaction network. At the end of the studies, the analysis of the internal efforts are carried out
APA, Harvard, Vancouver, ISO, and other styles
27

Ayadi, Ali. "Semantic approaches for the meta-optimization of complex biomolecular networks." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD035/document.

Full text
Abstract:
Les modèles de la biologie des systèmes visent à comprendre le comportement d’une cellule à travers un réseau biomoléculaire complexe. Dans a littérature, la plupart des études ne se sont intéressés qu’à la modélisation des parties isolées du réseau biomoléculaire com les réseaux métaboliques, etc. Cependant, pour bien comprendre le comportement d’une cellule, nous devons modéliser et analyser le réseau biomoléculaire dans son ensemble. Les approches existantes ne répondent pas suffisamment à ces exigences. Dans ce projet de recherche,nous proposons une plate-forme qui permet aux biologistes de simuler les changements d’état des réseaux biomoléculaires dans le but de piloter leurs comportements et de les faire évoluer d’un état non désiré vers un état souhaitable. Cette plate-forme utilise des règles, des connaissances et de l’expérience, un peu comme celles que pourrait en tirer un biologiste expert. La plate-forme comprend quatre modules : un module de modélisation logique, un module de modélisation sémantique, un module de simulation qualitative à événements discrets etun module d’optimisation. Dans ce but, nous présentons d’abord une approche logique pour la modélisation des réseaux biomoléculaires complexes, incluant leurs aspects structurels, fonctionnels et comportementaux. Ensuite, nous proposons une approche sémantique basée sur quatre ontologies pour fournir une description riche des réseaux biomoléculaires et de leurs changements d’état. Ensuite, nous présentons une méthode de simulation qualitative à événements discrets pour simuler le comportement du réseau biomoléculaire dans le temps. Enfin, nous proposons une méthode d’optimisation multi-objectifs pour optimiser la transitabilité des réseaux biomoléculaires complexes dans laquelle nous prenons en compte différents critères tels que la minimisation du nombre de stimuli externes, la minimisation du coût de ces stimuli, la minimisation du nombre de noeuds cibles et la minimisation de l’inconfort du patient. En se fondant sur ces quatre contributions, un prototype appelé CBN-Simulateur a été développé. Nous décrivons nos approches et montrons leurs applications sur des études de cas réels, le bactériophage T4 gene 32, le phage lambda et le réseau de signalisation p53. Les résultats montrent que ces approches fournissent les éléments nécessaires pour modéliser, raisonner et analyser le comportement dynamique et les états de transition des réseaux biomoléculaires complexes
Systems biology models aim to understand the behaviour of a cell trough a complex biomolecular network. In the literature, most research focuses on modelling isolated parts of this network, such as metabolic networks.However, to fully understand the cell’s behaviour we should analyze the biomolecular network as a whole. Avail-able approaches do not address these requirements sufficiently. In this context, we aim at developing a platform that enables biologists to simulate the state changes of biomolecular networks with the goal of steering their be-haviours. The platform employs rules, knowledge and experience, much like those that an expert biologist mightderive. This platform consists of four modules: a logic-based modelling module, a semantic modelling module,a qualitative discrete-event simulation module and an optimization module. For this purpose, we first present alogic-based approach for modelling complex biomolecular networks including the structural, functional and be-havioural aspects. Next, we propose a semantic approach based on four ontologies to provide a rich description of biomolecular networks and their state changes. Then, we present a method of qualitative discrete-event simulation to simulate the biomolecular network behaviour over time. Finally, we propose a multi-objective optimization method for optimizing the transittability of complex biomolecular networks in which we take into account various criteria such as minimizing the number of external stimuli, minimizing the cost of these stimuli, minimizing the number of target nodes and minimizing patient discomfort. Based on these four contributions, a prototype called the CBNSimulator was developed. We describe our approaches and show their applicability through real cases studies, the bacteriophage T4 gene 32, the phage lambda, and the p53 signaling network. Results demonstrate that these approaches provide the necessary elements to model, reason and analyse the dynamic behaviour and the transition states of complex biomolecular networks
APA, Harvard, Vancouver, ISO, and other styles
28

Mercat, Christian. "Analyse Complexe Discrète." Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00439782.

Full text
Abstract:
Ma contribution principale porte sur la géométrie différentielle discrète, spécialement la géométrie conforme discrète. Les champs d'application principaux que j'étudie sont l'imagerie par ordinateur et les systèmes intégrables, tant les systèmes intégrables discrets que les systèmes statistiques intégrables. Ma thèse sur le modèle d'Ising a identifié la criticité dans le modèle de taille fini comme un point où le fermion, une observable particulière, devient holomorphe pour une structure conforme discrète sous-jacente. À l'université de Melbourne, je me suis intéressé avec Paul Pearce aux modèles ADE qui sont une généralisation du modèle d'Ising, dans le but (inachevé mais en bonne voie) d'y identifier un analogue discret de l'algèbre des opérateurs vertex (les conditions de bord conformes et intégrables) et des blocs conformes, en particulier dans l'espoir de comprendre la criticité comme une compatibilité à l'holomorphie discrète. À l'université technique de Berlin, avec Alexander Bobenko et son équipe, j'ai compris la nature intégrable du modèle associé à l'holomorphie discrète (linéaire et quadratique) et utilisé les outils très puissants de cette théorie (isomonodromie, transformations de Darboux-Bäcklund, finite-gap) pour mettre à jour la position centrale de l'analyse complexe discrète dans la hiérarchie des systèmes intégrables discrets. À Montpellier, dans l'équipe Arith dirigée par Valérie Berthé, j'ai appliqué cette théorie dans le cadre de la géométrie différentielle discrète, particulièrement dans le cadre voxellique de la géométrie digitale.
APA, Harvard, Vancouver, ISO, and other styles
29

Dufresne, Yann. "Développement d’un solveur 3D massivement parallèle pour la prédiction d’écoulements granulaires réactifs en géométrie complexe DEM/CFD simulations of a pseudo-2D fluidized bed : comparison with experiments." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMIR15.

Full text
Abstract:
Les écoulements granulaires sont omniprésents dans l’industrie et mettent en jeu une grande variété d’échelles et de phénomènes physiques. Leur étude expérimentale est rendue complexe par le manque d’accès visuel, ce qui limite leur compréhension et leur prédictabilité. L’intérêt suscité par les simulations numériques pour l’étude de tels écoulements est grandissant, notamment dans un contexte d’augmentation des performances de calcul des machines parallèles. Aujourd’hui, les outils les plus adaptés à leur caractérisation sont des modèles à l’échelle macroscopique, où la phase solide est considérée continue,ce qui nécessite de nombreuses fermetures ad hoc. La méthode aux éléments discrets est capable d’apporter des données utiles à l’écriture de telles fermetures, en ceci qu’elle utilise moins d’hypothèses,considérant chaque particule individuellement. Couplée à un formalisme aux grandes échelles pour la phase fluide, elle permet de réaliser des bilans de quantité de mouvement et d’énergie sur chaque particule, et ainsi de représenter les collisions et les échanges thermiques, au prix d’une augmentation non négligeable du coût de calcul. Dans ce contexte, l’objectif de ces travaux est le développement d’un outil numérique autorisant l’étude de systèmes de taille semi-industrielle et de géométrie complexe. Un soin particulier est attaché à la mise au point d’un algorithme de traitement des collisions entre les particules sphériques et les parois de complexité arbitraire compatible avec les maillages non-structurés. Les performances parallèles du solveur sont également au cœur du sujet. Dans un paradigme parallèle utilisant la décomposition de domaine à deux niveaux, un algorithme permettant des échanges non-bloquants de messages uniques entre les processeurs est mis en place, comprenant également la possibilité d’effectuer une répartition dynamique de la charge de calcul durant la simulation. L’outil développé a été appliqué avec succès sur plusieurs configurations, parmi lesquelles un sablier témoignant de l’effet Janssen, un lit circulant avec boucle complète de recirculation comprenant un lit transporté et un cyclone, et un lit fluidisé anisotherme pseudo-2D figurant le refroidissement de billes de verre. Finalement, il a aussi permis de reproduire les observations expérimentales sur un lit fluidisé réactif réalisant la combustion de gaz naturel, comprenant cinquante millions de particules réparties sur deux mille processeurs
Particle-laden flows are ubiquitous in industry and feature multiple scales and physics. Their experimental study is made complex by the lack of visual access, thus limiting their understanding and predictability. The interest in numerical simulations to study such flows is growing, in particular in a context of computational power arising from parallel machines. Today, the most appropriate tools for their characterization are macro-scale models, where the solid phase is treated as a continuum, hence the need for ad hoc closures. The Discrete Element Method (DEM) is able to provide useful data to the design of such closures, as it necessitates lesser hypothesis, considering each particle individually. Coupled with a Large-Eddy Simulation (LES) framework, it enables to compute the momentum and energy balance on each particle, considering collisions and thermal exchanges, at the price of an increased computational time. In this context, the aim of this work is the development of a numerical tool allowing the study of realistic pilot scale systems involving complex geometries. Special care is given to the design of an algorithm for the treatment of spherical particles’ collisions with arbitrarily complex walls compatible with unstructured meshes. Parallel performances are at the heart of the subject as well. In a parallel paradigm of double domain decomposition, the design of an algorithm enabling non-blocking exchanges of unique messages between processors is carried out, also involving the possibility to achieve dynamic load balancing during simulations. The implemented solver was successfully applied to several configurations, among which an hourglass to recreate the Janssen effect, a full-loop circulating fluidized bed featuring a transported bed and a cyclone, and a non-isothermal pseudo-2D fluidized bed investigating the cooling of glass beads. Finally, it also reproduced experimental findings on a reactive fluidized bed performing natural gas combustion, gathering fifty million particles and running on two thousand cores
APA, Harvard, Vancouver, ISO, and other styles
30

Battisti, Laurent. "Variétés toriques à éventail infini et construction de nouvelles variétés complexes compactes : quotients de groupes de Lie complexes et discrets." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4714/document.

Full text
Abstract:
L'objet de cette thèse est l'étude de certaines classes de variétés complexes compactes non kählériennes. On regarde d'abord la classe des surfaces de Kato. Étant donnés une surface de Kato minimale S, D le diviseur maximal de S formé des courbes rationnelles de S et ϖ : Š ͢ S le revêtement universel de S, on démontre que Š \ϖ-1 (D) est une variété de Stein. Les variétés LVMB sont la seconde classe de variétés non kählériennes étudiées. Ces variétés complexes sont obtenues en quotientant un ouvert U de Pn par un sous-groupe de Lie fermé G de (C*)n de dimension m. On reformule ce procédé en remplaçant U par la donnée d'un sous-éventail de celui de Pn et G par un sous-espace vectoriel de Rn convenable. On construit ensuite de nouvelles variétés complexes compactes non kählériennes en combinant une méthode due à Sankaran et celle donnant les variétés LVMB. Sankaran considère un ouvert U d'une variété torique dont le quotient par un groupe W discret est une variété compacte. Ici, on munit une certaine variété torique Y de l'action d'un sous-groupe de Lie G de (C*)n de sorte que le quotient X de Y par G soit une variété, puis on quotiente un ouvert de X par un groupe discret W analogue à celui de Sankaran.Enfin, on étudie les variétés OT, une autre classe de variétés non kählériennes, dont on démontre que leur dimension algébrique est nulle. Ces variétés sont obtenues comme quotient d'un ouvert de Cm par le produit semi-direct du réseau des entiers d'une extension de corps finie K de Q et d'un sous-groupe des unités de K bien choisi
In this thesis we study certain classes of complex compact non-Kähler manifolds. We first look at the class of Kato surfaces. Given a minimal Kato surface S, D the divisor consisting of all rational curves of S and ϖ : Š ͢ S the universal covering of S, we show that Š \ϖ-1 (D) is a Stein manifold. LVMB manifolds are the second class of non-Kähler manifolds that we study here. These complex compact manifolds are obtained as quotient of an open subset U of Pn by a closed Lie subgroup G of (C*)n of dimension m. We reformulate this procedure by replacing U by the choice of a subfan of the fan of Pn and G by a suitable vector subspace of R^{n}. We then build new complex compact non Kähler manifolds by combining a method of Sankaran and the one giving LVMB manifolds. Sankaran considers an open subset U of a toric manifold whose quotient by a discrete group W is a compact manifold. Here, we endow some toric manifold Y with the action of a Lie subgroup G of (C^{*})^{n} such that the quotient X of Y by G is a manifold, and we take the quotient of an open subset of X by a discrete group W similar to Sankaran's one.Finally, we consider OT manifolds, another class of non-Kähler manifolds, and we show that their algebraic dimension is 0. These manifolds are obtained as quotient of an open subset of C^{m} by the semi-direct product of the lattice of integers of a finite field extension K over Q and a subgroup of units of K well-chosen
APA, Harvard, Vancouver, ISO, and other styles
31

Faustino, Nelson José Rodrigues. "Discrete Clifford analysis." Doctoral thesis, Universidade de Aveiro, 2009. http://hdl.handle.net/10773/2942.

Full text
Abstract:
Doutoramento em Matemática
Esta tese estuda os fundamentos de uma teoria discreta de funções em dimensões superiores usando a linguagem das Álgebras de Clifford. Esta abordagem combina as ideias do Cálculo Umbral e Formas Diferenciais. O potencial desta abordagem assenta essencialmente da osmose entre ambas as linguagens. Isto permitiu a construção de operadores de entrelaçamento entre estruturas contínuas e discretas, transferindo resultados conhecidos do contínuo para o discreto. Adicionalmente, isto resultou numa transcrição mimética de bases de polinómios, funções geradoras, Decomposição de Fischer, Lema de Poincaré, Teorema de Stokes, fórmula de Cauchy e fórmula de Borel-Pompeiu. Esta teoria também inclui a descrição dos homólogos discretos de formas diferenciais, campos vectores e integração discreta. De facto, a construção resultante de formas diferenciais, campos vectores e integração discreta em termos de coordenadas baricêntricas conduz à correspondência entre a teoria de Diferenças Finitas e a teoria de Elementos Finitos, dando um núcleo de aplicações desta abordagem promissora em análise numérica. Algumas ideias preliminares deste ponto de vista foram apresentadas nesta tese. Também foram apresentados resultados preliminares na teoria discreta de funções em complexos envolvendo simplexes. Algumas ligações com Combinatória e Mecânica Quântica foram também apresentadas ao longo desta tese.
This thesis studies the fundamentals of a higher dimensional discrete function theory using the Clifford Algebra setting. This approach combines the ideas of Umbral Calculus and Differential Forms. Its powerful rests mostly on the interplay between both languages. This allowed the construction of intertwining operators between continuous and discrete structures, lifting the well known results from continuum to discrete. Furthermore, this resulted in a mimetic transcription of basis polynomial, generating functions, Fischer Decomposition, Poincaré and dual-Poincaré lemmata, Stokes theorem and Cauchy’s formula. This theory also includes the description discrete counterparts of differential forms, vector-fields and discrete integration. Indeed the resulted construction of discrete differential forms, discrete vector-fields and discrete integration in terms of barycentric coordinates leads to the correspondence between the theory of Finite Differences and the theory of Finite Elements, which gives a core of promising applications of this approach in numerical analysis. Some preliminary ideas on this point of view were presented in this thesis. We also developed some preliminary results in the theory of discrete monogenic functions on simplicial complexes. Some connections with Combinatorics and Quantum Mechanics were also presented along this thesis.
APA, Harvard, Vancouver, ISO, and other styles
32

Chebbi, Yassin. "Laplacien discret d'un 2-complexe simplicial." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4028/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Pacheco-Martínez, Ana María. "Extracting cell complexes from 4-dimensional digital images." Thesis, Poitiers, 2012. http://www.theses.fr/2012POIT2262/document.

Full text
Abstract:
Une image numérique peut être définie comme un ensemble de n-xels sur une grille constituée de n-cubes. La segmentation consiste à calculer une partition d'une image en régions. Les n-xels ayant des caractéristiques similaires (couleur, intensité, etc.) sont regroupés. Schématiquement, à chaque n-xel est attribuée une étiquette, et chaque région de l'image est constituée de n-xels de même étiquette. Les méthodes "de type" Marching cubes et Kenmochi et al. construisent des complexes représentant la topologie de la région d'intérêt d'une image numérique binaire de dimension 3. Dans la première méthode, l'algorithme construit un complexe simplicial, dont 0-cellules sont des points des arêtes de la grille duale. Dans la deuxième méthode, les auteurs construisent un complexe cellulaire sur une grille duale, c.a.d les 0-cellules du complexe sont des sommets de la grille duale. Afin de construire le complexe, Kenmochi et al. calculent (à rotations près) les différentes configurations de sommets blancs et noirs d'un cube, puis, ils construisent les enveloppes convexes des points noirs de ces configurations. Ces enveloppes convexes définissent les cellules du complexe, à rotations près. Le travail développé dans cette thèse étend la méthode de Kenmochi et al. en dimension 4. L'objectif est de construire un complexe cellulaire à partir d'une image numérique binaire définie sur une grille duale. Nous calculons d'abord les différentes configurations de sommets blancs et noirs d'un 4-cube (à isométries près), puis, nous construisons des enveloppes convexes définies par ces configurations. Ces enveloppes convexes sont construites par déformation du 4-cube d'origine, et nous distinguon
A digital image can be defined as a set of n-xels on a grid made up by n-cubes. Segmentation consists in computing a partition of an image into regions. The n-xels having similar characteristics (color, intensity, etc.) are regrouped. Schematically, each n-xel is assigned a label, and each region of the image is made up by n-xels with the same label. The methods "type" Marching cubes and Kenmochi et al. construct complexes representing the topology of the region of interest of a 3-dimensional binary digital image. In the first method, the algorithm constructs a simplicial complex, whose 0-cells are points of the edges of the dual grid. Inthe second one, the authors construct a cell complex on a dual grid, i.e. the 0-cells of the complex are vertices of the dual grid. In order to construct the complex, Kenmochi et al. compute (up to rotations) the different configurations of white and black vertices of a cube, and then, they construct the convex hulls of the black points of these configurations. These convex hulls define the cells of the complex, up to rotations. The work developed in this thesis extends Kenmochi et al. method todimension 4. The goal is to construct a cell complex from a binary digital image defined on a dual grid. First, we compute the different configurations of white and black vertices of a 4-cube, up to isometries, and then, we construct the convex hulls defined by these configurations. These convex hulls are constructed by deforming the original 4-cube, and we distinguishseveral basic construction operations (deformation, degeneracy of cells, etc.). Finally, we construct the cell complex corresponding to the dual image by assembling the cells so o
Una imagen digital puede ser definida como un conjunto de n–xeles en un mallado constituido de n–cubos. Los n–xeles pueden ser identificados con: (1) los n–cubos del mallado, o con (2) los puntos centrales de estos n–cubos. En el primer caso, trabajamos con un mallado primal, mientras que en el segundo, trabajamos con un mallado dual construido a partir del mallado primal. La segmentación consiste en calcular una partición de una imagen en regiones. Los n–xeles que tienen características similares (color, intensidad, etc.) son reagrupados. Esquemáticamente, a cada n–xel se le asocia una etiqueta, y cada región de la imagen está constituida de n–xeles con la misma etiqueta. En particular, si las únicas etiquetas permitidas para los n–xeles son “blanca” y “negra”, la segmentación se dice binaria: los n–xeles negros forman el primer plano (foreground) o región de interés en cuestión de análisis de la imagen, y los n–xeles blancos forman el fondo (background). Ciertos modelos, como los Grafos de Adyacencia de Regiones (RAGs), los Grafos Duales (DGs) y la carta topológica, han sido propuestos para representar las particiones en regiones, y en particular para representar la topología de estas regiones, es decir las relaciones de incidencia y/o adyacencia entre las diferentes regiones. El RAG [27] es un precursor de este tipo de modelos, y ha sido una fuente de inspiración de los DGs [18] y de la carta topológica [9, 10]. Un RAG representa una imagen primal etiquetada por un grafo: los vértices del grafo corresponden a regiones de la imagen, y las aristas del grafo representan las relaciones de adyacencia entre la regiones. Los DGs son un modelo que permite resolver ciertos inconvenientes de los RAGs para representar imágenes de dimensión 2. La carta topológica es una extensión de los modelos anteriores definida para manipular imágenes primales de dimensión 2 y 3, representando no solamente las relaciones topológicas, sino también las relaciones geométricas
APA, Harvard, Vancouver, ISO, and other styles
34

Lahoud, Marcelo Galindo [UNESP]. "Síntese e investigação da potencialidade de aplicação como material molecular de espécies discretas e Metal Organic Frameworks (MOFs) baseados em íons terras raras." Universidade Estadual Paulista (UNESP), 2016. http://hdl.handle.net/11449/143479.

Full text
Abstract:
Submitted by MARCELO GALINDO LAHOUD null (marcelo_lahoud@hotmail.com) on 2016-08-29T14:30:25Z No. of bitstreams: 1 Tese.pdf: 5422221 bytes, checksum: 5ec64c3a1cf3ba55c1ca566db0e47a8b (MD5)
Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2016-08-30T17:19:13Z (GMT) No. of bitstreams: 1 lahoud_mg_dr_araiq.pdf: 5422221 bytes, checksum: 5ec64c3a1cf3ba55c1ca566db0e47a8b (MD5)
Made available in DSpace on 2016-08-30T17:19:13Z (GMT). No. of bitstreams: 1 lahoud_mg_dr_araiq.pdf: 5422221 bytes, checksum: 5ec64c3a1cf3ba55c1ca566db0e47a8b (MD5) Previous issue date: 2016-08-11
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Este trabalho é dividido em duas partes, na primeira parte foi caracterizado o complexo [Ln(keto)3(H2O)] (Ln = Gd, Eu) por espectroscopia vibracional no infravermelho, analise elementar e otimização da geometria por método DFT. Mas o foco central foram os estudos das propriedades luminescente no intervalo de 12 – 300 K. O espectro de emissão do [Eu(keto)3(H2O)] revela uma forte dependência com a temperatura, bem ilustrada pelo não usual deslocamento amplo para o azul de (17 cm1) da transição 5D07F0 quando a temperatura é elevada de 12 a 300 K. A diferença aritmética entre os espectros de absorção do [Eu(keto)3(H2O)] com o do [Gd(keto)3(H2O)] indicou a presença de uma banda de transferência de carga do ligante para o metal (LMCT) (320-370 nm). A partir da fosforescência do [Gd(keto)3(H2O)] a energia dos estados de tripleto relacionada ao Keto foi determinada mostrando uma grande sobreposição com os níveis intra-4f6 e um forte acoplamento elétron-fônon. A alta ressonância entre o nível LMCT e estados tripletos e os níveis do Eu3+ leva a uma forte dependência do valor do tempo de vida da 5D0, típico da presença de processos de transferência de energia operativos. A segunda parte desse trabalho compreendeu na síntese, caracterização e estudos das propriedades luminescente e magnéticas de uma MOF inédito de formula [Eu2(Btec)1,5(H2O)]n. A MOF foi sintetizada por via hidrotermal e caracterizado por DRX de monocristal e pó, espectroscopia vibracional no infravermelho, reflectância difusa, analise elementar, analise térmica, microscopia eletrônica de varredura e fisissorção de N2. O composto apresentou boa estabilidade térmica no entanto mostrou-se ter baixa porosidade. A MOF apresentou emissão na região do vermelho com elevado rendimento quântico de emissão, mostrando que o ligante é um bom sensibilizador nesse sistema. As emissões dos íons Eu3+ mostraram-se ser uma sonda espectroscópica, contribuindo na elucidação da estrutura. Foi observado uma dependência térmica em relação à intensidade das transições originárias do nível 7F1, em especial a transição 7F15D1. Além disso, as transições intraconfiguracionais 4f-4f mostram ter uma boa fotoestabilidade. Resultados de susceptibilidade magnética mostram íons Eu3+ magneticamente afastados e portanto os torna uma fraca probe estrutural.
This work is divided into two parts, the first part was characterized the complex [Ln(keto)3(H2O)] (Ln = Gd, Eu) by infrared spectroscopy, elemental analysis and geometry optimization by DFT method. But the central focus was the study of luminescent properties in the 12-300 K interval. The emission spectra of [Eu(keto)3(H2O)] reveal a strong dependence with the temperature, well-illustrated by an unusual large blue-shift (17 cm1) of the 5D07F0 transition as the temperature is raised from 12 to 300 K. The arithmetic difference between the absorption spectrum of [Eu(keto)3(H2O)] with that of [Gd(keto)3(H2O)] pointed out the presence of a ligand-to-metal charge transfer (LMCT) band (320-370 nm). From the [Gd(keto)3(H2O)] phosphorescence the energy of the keto-related triplet states was determined showing a large overlap with the intra-4f 6 levels and a strong electron-phonon coupling. The high-resonance between the LMCT and triplet states and the Eu3+ levels leads to a strong dependence of the 5D0 lifetime value, typical of the presence of operative energy transfer processes. The second part of this work included in the synthesis, characterization and study of luminescence and magnetic properties of a novel MOF formula [Eu2(Btec)1,5(H2O)]n. The MOF was synthesized by way hydrothermal and characterized by XRD of single crystal and powder, infrared spectroscopy, diffuse reflectance, elemental analysis, thermal analysis, scanning electron microscopy and N2 physisorption. Compound demonstrated good thermal stability however proved to have low porosity. MOF showed emission in the red region with a high emission quantum yield, showing that the ligand is a good sensitizer in the system. The emission of Eu3+ ions proved to be a spectroscopic probe, contributing to the elucidation of the structure. A thermal dependence was observed in relation to the intensity of originating 7F1 level transitions, in particular the 7F15D1 transition. Furthermore, the 4f-4f transitions intraconfigurational shown to have a good photostability. Magnetic susceptibility results show Eu3+ ions separated magnetically and thus makes a weak probe structure.
APA, Harvard, Vancouver, ISO, and other styles
35

BOUFAIED, Amine. "Contribution à la surveillance distribuée des systèmes à événements discrets complexes." Phd thesis, Université Paul Sabatier - Toulouse III, 2003. http://tel.archives-ouvertes.fr/tel-00010972.

Full text
Abstract:
Le travail présenté dans ce mémoire s'inscrit dans le domaine de la surveillance des systèmes à événements discrets et porte plus particulièrement sur le problème de la détection distribuée de procédés complexes. L'architecture proposée repose sur des sites autonomes et coopératifs de surveillance permettant de surveiller les évolutions du procédé. Ces évolutions, traduisant le fonctionnement attendu (normal) du système ou des situations de défaillance, sont décrites par des chroniques. Chaque chronique est composée d'un ensemble d'événements et d'un ensemble de contraintes temporelles entre ces événements. Trois types de contraintes sont considérés : les contraintes de précédence, les contraintes de types intervalles et les contraintes de type fenêtre d'admissibilité. Une chronique est dite reconnue si toutes les contraintes qui la composent sont vérifiées compte tenu des durées séparant les occurrences des événements la constituant. La distribution du modèle temporel représenté par la chronique induit la distribution de la chronique en sous-chroniques distribuées sur plusieurs sites de surveillance (sous-systèmes). La reconnaissance de l'ensemble des sous-chroniques assure la reconnaissance de la chronique. Cette distribution de la chronique en sous-chroniques permet de mettre en évidence deux types de contraintes : les contraintes locales et les contraintes globales. Les délais de communication ou de transport entre sites sont bornés et sont pris en compte lors de la vérification des contraintes temporelles globales. L'incertitude induite par ces délais engendre une incertitude sur la vérification qui se traduit par une mesure de possibilité associée à la vérification d'une contrainte. Des mécanismes de coopération entre sites de surveillance sont définis. Une modélisation des différents mécanismes développés reposant sur les réseaux de Petri p-t-temporels flous est proposée. Enfin, l'ensemble des travaux est appliqué à la surveillance d'un terminal intermodal de fret.
APA, Harvard, Vancouver, ISO, and other styles
36

ZAMAI, Eric. "Architecture de surveillance-commande pour les systèmes à événements discrets complexes." Phd thesis, Université Paul Sabatier - Toulouse III, 1997. http://tel.archives-ouvertes.fr/tel-00010078.

Full text
Abstract:
Le travail présenté dans ce mémoire s'inscrit dans le contexte de la supervision des ateliers flexibles de production manufacturière. Il traite plus particulièrement de l'intégration de la surveillance temps réel des défaillances du procédé. L'approche se distingue en considérant la commande et la surveillance sur un même plan et non la surveillance comme un palliatif à la commande. Une structure d'un module de surveillance-commande est proposée. Le module est constitué de deux modèles coopérants basés sur le concept d'activités : l'un, appelé modèle de référence pour la surveillance-commande, modélise toutes les fonctionnalités mises en ¿uvre par le système de surveillance, l'autre, appelé modèle de la stratégie de surveillance-commande, modélise les contraintes imposées par les objectifs propres de l'entreprise et des utilisateurs. L'exécution d'un traitement de surveillance (séquence d'activités) n'est pas limitée au strict enchaînement des fonctions détection, diagnostic, décision puis reprise. D'autres séquences mettant en ¿uvre des activités de surveillance-commande plus élaborées (par exemple, activation de plusieurs fonctions de surveillance-commande du module simultanément) sont autorisées et réalisables par le module. En fonction des activités en cours d'exécution, un superviseur implanté dans chacun des modules gère l'ensemble des informations qui transitent par le module en les orientant vers la ou les fonctions de surveillance-commande aptes à les prendre en compte : détection, diagnostic, décision, reprise, urgence, suivi, commande. Un exemple d'application basé sur un processus manufacturier réel, la cellule flexible de l'Ecole Nationale d'Ingénieur de Tarbes (ENIT), illustre les apports de notre approche. Ils se traduisent en terme de flexibilité de surveillance, de réactivité aux diverses évolutions du procédé, de prise en compte et de respect des contraintes imposées par l'entreprise d'un point de vue surveillance.
APA, Harvard, Vancouver, ISO, and other styles
37

Zamaï, Eric. "Architecture de surveillance-commande pour les systèmes à événements discrets complexes." Toulouse 3, 1997. http://www.theses.fr/1997TOU30136.

Full text
Abstract:
Le travail présenté dans ce mémoire s'inscrit dans le contexte de la supervision des ateliers flexibles de production manufacturière. Il traite plus particulièrement de l'intégration de la surveillance temps réel des défaillances du procédé. L'approche se distingue en considérant la commande et la surveillance sur un même plan et non la surveillance comme un palliatif à la commande. Une structure d'un module de surveillance-commande est proposée. Le module est constitué de deux modèles coopérants basés sur le concept d'activités : l'un, appelé modèle de référence pour la surveillance-commande, modélise toutes les fonctionnalités mises en ¿uvre par le système de surveillance, l'autre, appelé modèle de la stratégie de surveillance-commande, modélise les contraintes imposées par les objectifs propres de l'entreprise et des utilisateurs. L'exécution d'un traitement de surveillance (séquence d'activités) n'est pas limitée au strict enchaînement des fonctions détection, diagnostic, décision puis reprise. D'autres séquences mettant en ¿uvre des activités de surveillance-commande plus élaborées (par exemple, activation de plusieurs fonctions de surveillance-commande du module simultanément) sont autorisées et réalisables par le module. En fonction des activités en cours d'exécution, un superviseur implanté dans chacun des modules gère l'ensemble des informations qui transitent par le module en les orientant vers la ou les fonctions de surveillance-commande aptes à les prendre en compte : détection, diagnostic, décision, reprise, urgence, suivi, commande. Un exemple d'application basé sur un processus manufacturier réel, la cellule flexible de l'Ecole Nationale d'Ingénieur de Tarbes (ENIT), illustre les apports de notre approche. Ils se traduisent en terme de flexibilité de surveillance, de réactivité aux diverses évolutions du procédé, de prise en compte et de respect des contraintes imposées par l'entreprise d'un point de vue surveillance
The work presented deals with the supervision of flexible manufacturing systems. It presents the integration of real-time monitoring of process failures. The originality of this approach is to consider the control and the monitoring on the same level and not the monitoring as a palliative for the control. A structure of a monitoring-control module is proposed. This module is made up of two cooperating models based on the activity concept. The first one, the reference model for monitoring and control, gives all the functionalities of the monitoring system. The second one, the strategy model for monitoring and control, models the constraints imposed by the objectives of the firm and the users. The execution of a monitoring treatment is not limited to the strict sequence ¿ detection, diagnosis, decision and recovery ¿. Other elaborated sequences are allowed and can be executed by the module. Taking the executed activity into account, a supervisor integrated in each module of the hierarchy manages the information by directing each one to the suitable monitoring or control functions: detection, follow, control, diagnosis, decision, recovery or emergency. An example based on a manufacturing process illustrates the main benefits of the approach: monitoring flexibility, reactivity to the process evolutions, respect of the monitoring constraints imposed by the factory
APA, Harvard, Vancouver, ISO, and other styles
38

Boufaied, Amine. "Contribution à la surveillance distribuée des systèmes à évènements discrets complexes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Roux, Anthony. "Modélisation par la Méthode des Eléments Discrets de la Déchirure du Complexe Musculo-Tendineux." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0023/document.

Full text
Abstract:
La déchirure musculaire est la première cause de blessure chez les athlètes. De nombreuses études décrivent ce traumatisme musculaire sans parvenir à en identifier clairement la chronologie et ses circonstances. L’objectif de la thèse est de décrire le phénomène de déchirure musculaire avec la méthode des éléments discrets, en s’appuyant sur des essais expérimentaux pour valider les modèles numériques. Dans une première partie, une revue de littérature permet d’acquérir les propriétés mécaniques des différents éléments constituant le complexe musculo-tendineux afin de pouvoir en réaliser un modèle macroscopique. Dans une deuxième partie, la modélisation du complexe musculo-tendineux est réalisée. La validation du comportement mécanique en traction passive du modèle proposé est réalisée en comparaison des travaux de L-L. Gras sur le muscle sternocléidomastoïdien humain. L’influence des paramètres morphologiques sur le comportement mécanique global est ensuite étudiée. La rupture fait l’objet de la troisième partie. Une modélisation de l’ensemble {tendon d’Achille/triceps sural} est réalisée et soumise à un test de traction passif jusqu’à rupture. La validation des résultats est faite vis-à-vis des essais expérimentaux réalisés sur cet ensemble musculaire provenant de pièces anatomiques humaines. L’étape suivante s’attache à modéliser la contraction musculaire, implémentée au niveau des fibres musculaires. Une validation du comportement actif du complexe musculo-tendineux est réalisée. Cette dernière étape, combinée à la traction destructive permet d’étudier la faisabilité de modéliser la déchirure par la méthode des éléments discrets, mais également d’étudier les structures endommagées et les mécanismes de rupture. Cela ouvre des possibilités d’utilisation cliniques de ce modèle pour comprendre et prévenir des blessures par déchirure musculaire
Tearing of the muscle-tendon complex is a common sport-related injury for athletes. Many studies reported description of this traumatism but mechanisms leading to such an injury are still unclear as are the site of mechanical failure and involved structures. The aim of the thesis is to describe the phenomenon of the muscle-tendon-complex’s tear using the discrete element method and validating the numerical model with experimental data. In the first part, a literature review explains the different properties of the muscle-tendon complex main components’ in order to model it at the macroscopic scale. In the second part, the muscle-tendon complex is modeled. Validation of the mechanical behavior in passive tensile test is proposed by comparison with experimental data from L.-L. Gras on human sternocleidomastodeus muscle. Then, the different influences of morphometric parameters on the mechanical behavior of the complex are investigated. The third part focuses on the rupture. A model of the complex set of {Achilles tendon/surae triceps} is built and a tensile test until rupture is applied. Model validity is assessed by comparison with in vitro experiments from human cadavers. The fourth part focuses on the muscular activation, implemented inside fibers’ behavior. Validity of its active behavior is investigated. This fifth and last presents the enrichment with destructive tensile test. This added test allows first to study the feasibility to model the tear with the discrete element method; and second to focus on damaged structures and rupture’s mechanisms. This offers possibilities for clinical applications of this model to understand and prevent injuries caused by a tear of the muscle-tendon complex
APA, Harvard, Vancouver, ISO, and other styles
40

Paupert, Julien. "Configurations de lagrangiens, domaines fondamentaux et sous-groupes discrets de PU (2,1)." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2005. http://tel.archives-ouvertes.fr/tel-00011502.

Full text
Abstract:
L'objet de cette thèse est l'étude de sous-groupes discrets de
$PU(2,1)$, groupe des isométries holomorphes de l'espace hyperbolique complexe de dimension (complexe) 2. On s'intéresse en particulier aux groupes engendrés par des transformations elliptiques, i.e. ayant un point fixe dans cet espace.

Les deux fils conducteurs de ce travail sont d'une part l'utilisation des sous-espaces lagrangiens (ou plans réels) ainsi que des réflexions associées (des involutions antiholomorphes), et de l'autre
l'étude et la compréhension des exemples de réseaux de $PU(2,1)$
construits par Mostow en 1980.
APA, Harvard, Vancouver, ISO, and other styles
41

Barnard, Kristen M. "Some Take-Away Games on Discrete Structures." UKnowledge, 2017. http://uknowledge.uky.edu/math_etds/44.

Full text
Abstract:
The game of Subset Take-Away is an impartial combinatorial game posed by David Gale in 1974. The game can be played on various discrete structures, including but not limited to graphs, hypergraphs, polygonal complexes, and partially ordered sets. While a universal winning strategy has yet to be found, results have been found in certain cases. In 2003 R. Riehemann focused on Subset Take-Away on bipartite graphs and produced a complete game analysis by studying nim-values. In this work, we extend the notion of Take-Away on a bipartite graph to Take-Away on particular hypergraphs, namely oddly-uniform hypergraphs and evenly-uniform hypergraphs whose vertices satisfy a particular coloring condition. On both structures we provide a complete game analysis via nim-values. From here, we consider different discrete structures and slight variations of the rules for Take-Away to produce some interesting results. Under certain conditions, polygonal complexes exhibit a sequence of nim-values which are unbounded but have a well-behaved pattern. Under other conditions, the nim-value of a polygonal complex is bounded and predictable based on information about the complex itself. We introduce a Take-Away variant which we call “Take-As-Much-As-You-Want”, and we show that, again, nim-values can grow without bound, but fortunately they are very easily described for a given graph based on the total number of vertices and edges of the graph. Finally we consider Take-Away on a specific type of partially ordered set which we call a rank-complete poset. We have results, again via an analysis of nim-values, for Take-Away on a rank-complete poset for both ordinary play as well as misère play.
APA, Harvard, Vancouver, ISO, and other styles
42

Trevisan, Edson Felipe Capovilla. "Métodos de simulação-otimização e análise de decisão multi-critério aplicados ao dimensionamento de sistemas logísticos complexos." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/3/3148/tde-19092014-114307/.

Full text
Abstract:
O estudo de sistemas logísticos envolve a concatenação de elementos estratégicos e operacionais, comumente compondo sistemas com múltiplas facetas, objetivos antagônicos e grande número de alternativas. Nesse contexto, o presente trabalho discute a utilização de análise de decisão multicritério (MCDA), simulação de eventos discretos (SED) e otimização para simulação. A metodologia MCDA captura, mensura e pondera os objetivos e valores dos tomadores de decisão. Por sua vez, a SED representa o sistema estudado com alto nível de detalhamento, permitindo a avaliação de diversas configurações do sistema. Por fim, métodos de otimização para simulação possibilitam a busca e comparação de alternativas mais eficientes. As três metodologias são avaliadas, identificando suas vantagens, desvantagens e complementaridades quando aplicadas a sistemas logísticos. Através da aplicação de um estudo de caso sobre o dimensionamento de um sistema de transporte, constatou-se que: a) a SED incorporou detalhes importantes para a avaliação mais precisa de vários indicadores de desempenho b) a metodologia MCDA possibilitou a captura de vários objetivos e valores, propiciando a realização de tradeoffs robustos; c) um método de busca exaustiva e técnicas de redução de variância permitiram a comparação das alternativas em tempos computacionais reduzidos. Por fim, conclui-se que a metodologia híbrida apresentada expande o potencial de aplicação da SED em sistemas logísticos complexos.
A logistic system study involves strategic and operational elements, commonly composing multi-faceted systems with antagonistic goals and large number of alternatives. In this context, this thesis discusses the use of multi-criteria decision analysis (MCDA), discrete event simulation (DES) and optimization for simulation. The MCDA methodology captures, measures and weighs the goals and values of decision makers. DES is useful for representing systems with high level of detail, allowing the evaluation of several system configurations. Finally, optimization for simulation procedures are useful for searching and comparing more efficient alternatives. These three methodologies are assessed and their advantages, disadvantages, and complementarities are identified for logistics systems applications. Through a case study of a transportation system, we conclude that: a) the SED incorporated important details for more precise evaluation of various performance indicators b) the MCDA methodology was useful to capture several goals and values, so that robust tradeoffs could be carried out c) an exhaustive search routine and variance reduction techniques allowed the comparison of several alternatives in feasible computational times. Finally, we conclude that the presented hybrid methodology expands the application of DES to complex logistics systems.
APA, Harvard, Vancouver, ISO, and other styles
43

Nguyen, Dang-Trinh. "Diagnostic en ligne des systèmes à événements discrets complexes : approche mixte logique/probabiliste." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT067/document.

Full text
Abstract:
Les systèmes de production auquel nous nous intéressons ici sont caractérisés par leur haut niveau de flexibilité et leur fort niveau d'incertitude lié par exemple à la forte variabilité de la demande, le haut niveau des technologies produites, un flux de production stressant, la présence d'opérateurs humains, de produits, etc. Le domaine de l'industrie du semi-conducteur est un exemple caractéristique de ce type de systèmes. Ces systèmes caractérisent également des équipements nombreux et couteux, des routes de produits diverses, voire même réentrantes sur un même équipement, des équipements de métrologie produits, etc.La présence non systématique d'équipements de métrologie en sortie de chacun des équipements de production (Patterson et al, 2005) rend ce système encore davantage complexe. Cela a en effet pour conséquences des problématiques inéluctables de propagations de défaillances au travers du flux de produits, défaillances qui ne pourront être détectées plus tard qu'au travers d'un arrêt d'équipement non programmé ou alors lors d'un contrôle produit sur un équipement de métrologie. Pour faire face à une telle complexité, un modèle de structure de commande hiérarchique et modulaire est généralement en premier lieu préconisé, il s'agit du modèle CIM (Jones et al, 1990). Ce modèle consiste à décomposer dans un premier temps le système de pilotage en 5 niveaux de commande allant de la couche capteurs/actionneurs en passant par le contrôle-commande et la supervision. Nous nous intéresserons ici plus particulièrement aux trois derniers niveaux temps réels de ce modèle. En effet, lorsqu'une défaillance est détectée au niveau le plus bas de cette pyramide de commande, il s'agit de mettre en place un mécanisme permettant de localiser, en temps réel et de manière efficace, la ou les origines possibles d'une telle défaillance, qu'elle soit propagée, ou non afin de fournir au système d'aide à la décision les informations importantes pour guider l'opérateur humain dans sa phase de maintenance corrective et ainsi contribuer à réduire le temps d'arrêts d'équipements ; l'origine ou la cause de l'arrêt pouvant être l'équipement lui-même (panne de capteur, d'actionneur, déréglage…) ou une mauvaise maintenance, ou encore une recette mal qualifié, etc…L'idée générale que nous défendons ici consiste à s'appuyer sur le mécanisme de génération en ligne du modèle d'historique des opérations exécutées réduit à celles suspectes pour identifier la structure du réseau Bayésien correspondant au modèle de diagnostic ; et de mener par la suite le calcul des probabilités du modèle Bayésien résultant afin de déterminer les candidats à visiter en premier (notion de score) et ainsi contribuer à optimiser la prise de décision pour la maintenance corrective.L'approche générale se veut donc à la croisée d'une approche déterministe et une probabiliste dans un contexte dynamique. Au-delà de ces propositions méthodologiques, nous avons développé une application logicielle permettant de valider notre proposition sur un cas d'étude de la réalité. Les résultats sont particulièrement encourageants et ont fait l'objet de publications des conférences internationales et la soumission dans la revue International Journal of Risk and Reliability
Today's manufacturing systems are challenged by increasing demand diversity and volume that result in short product life cycles with the emergence of high-mix low-volume production. Therefore, one of the main objectives in the manufacturing domain is to reduce cycle time (CT) while ensuring product quality at reduced cost. In such competitive environment, product quality is ensured by introducing more rigorous controls at each production step that results in extended cycle times and increased production costs. This can be reduced by introducing R2R (run to run) loops where control on the product quality is carried out after multiple consecutive production steps. However, product quality drift, detected by metrology at the end of run-to-run loop, results in stopping respective sequence of production equipment. The manufacturing systems are equipped with sensors that provide basis for real time monitoring and diagnosis; however, placement of these sensors is constrained by its structure and the functions they perform. Besides this, these sensors cannot be placed across the equipment due to associated big data analyses challenge. This also results in non-observable components that limit our ability to support effective real time monitoring and fault diagnosis initiatives. Consequently, production equipment in R2R loop are stopped upon product quality drift detection at the inspection step. It is because of the fact that we are unable to diagnose that which equipment or components are responsible for the product quality drift. As a result, production capacities are reduced not because of faulty equipment or components but due to our inability for efficient and effective diagnosis.In this scenario, the key challenge is to diagnose faulty equipment and localize failure(s) against these unscheduled equipment breakdowns. Moreover, the situation becomes more complex if the potential failure(s) is unknown and requires experts' intervention before corrective maintenance can be applied. In addition to this, new failures can emerge as a consequence of different failures and associated delay in its localization and detection. Therefore, success of the manufacturing domain, in such competitive environment, depends on quick and more accurate fault isolation, detection and diagnosis. This paper proposes a methodology that exploits historical data over unobserved equipment components to reduce search space of potential faulty components followed by more accurate diagnosis of failures and causes. The key focus is to improve the effectiveness and efficiency of real time monitoring of potential faulty components and causes diagnoses.This research focuses on potential diagnosis using Logical Diagnosis model (Deschamps et al., 2007) which that offers real time diagnosis in an automated production system. This reduces the search space for faulty equipment from a given production flow and optimizes the learning step for the subsequent BN. The BN model, based on the graphical structure, received from Logical Diagnosis model then computes joint and conditional probabilities for each node, to support corrective maintenance decisions upon scheduled and unscheduled equipment breakdowns. The proposed method enables real time diagnosis for corrective maintenance in fully or semi-automated manufacturing systems
APA, Harvard, Vancouver, ISO, and other styles
44

Combacau, Michel. "Commande et surveillance des systèmes a évéments discrets complexes : application aux ateliers flexibles." Toulouse 3, 1991. http://www.theses.fr/1991TOU30220.

Full text
Abstract:
Ces travaux presentent une approche pour l'integration de la surveillance des defaillances du procede dans les systemes de commande automatique temps reel de grande taille, en vue de l'application au contexte particulier des ateliers flexibles de production manufacturiere. Un module generique offrant les differentes fonctions de la surveillance (detection, diagnostic, decision et reprise) y est propose. Les fonctions de la surveillance (particulierement le diagnostic et la decision) sont separees du systeme de commande. Ainsi, des outils de modelisation differents peuvent etre utilises pour decrire le fonctionnement normal du module (fonction commande) et le traitement des defaillances. Les modeles utilises par le systeme de commande s'appuient sur les reseaux de petri temporels a objets, tandis que les fonctions de la surveillance sont baties autour de systemes a base de regles. Le systeme de commande utilise deux modeles cooperants: un reseau de petri de reference modelisant l'ensemble des comportements correspondant au fonctionnement normal du procede et un reseau de petri modelisant les contraintes imposees par la commande en cours d'execution. La fonction detection est basee sur la comparaison du comportement reel du procede et du comportement specifie par le modele de commande. Un ecart significatif (compte rendu anormal ou depassement d'une date limite) est interprete comme un symptome de defaillance. Suite a la detection d'une defaillance le processus de diagnostic est lance de facon autonome. Les reseaux de petri de reference sont vus comme une base de donnees et les regles de fonctionnement exprimees par sa structure de controle sont exploitees pour rechercher, si necessaire, les causes d'une anomalie dans les operations effectuees anterieurement
APA, Harvard, Vancouver, ISO, and other styles
45

Deschamps, Eric. "Diagnostic de services pour la reconfiguration dynamique de systèmes à évenements discrets complexes." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0136.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine de la reconfiguration dynamique des systèmes de production. Elle apporte sa contribution au diagnostic de services en présence de défaillances de la partie opérative. L'objectif visé est de mettre à jour, en ligne, un modèle représentant les capacités offertes par une partie opérative. Aussi, sur la base d'un tel modèle reprenant les principes issus de la planification automatique, nous avons tout d'abord proposé un mécanisme de suivi permettant de construire et de gérer un modèle d'historique. Ensuite, un algorithme de recherche avant/arrière basé sur un système de règles a été développé afin, sous l'occurrence de défaillances, de localiser non seulement les services étant à l'origine possible du dysfonctionnement constaté mais aussi ceux potentiellement affectés. Après quoi, une mise à jour du modèle de partie opérative est opérée afin de présenter au système de reconfiguration une image « honnête» des capacités opératoires encore disponibles
This thesis takes place in the context of dynamic reconfiguration of production systems. It contributes to the diagnosis of services in the presence of failures of the operative part. The aim is to update, on line, a model representing the capacities offered by an operative part. Thus, based on such a model which uses the principles issued of automatic planning, we proposed, first, a mechanism of tracking allowin! the build and the organization of a history. Second, an algorithm of forward/backward search, based on a system of rules, was developed to locate under the occurrence of failures, not only the services being at the possible origin of the dysfunction observed but also services potentially affected. Finally, an update of the operating part model is done in order to present at the system reconfiguration an "honest" model of the operational capacities which are still available
APA, Harvard, Vancouver, ISO, and other styles
46

Gaye, Masseye. "Sous-groupes discrets de PU(2,1) engendrés par n réflexions complexes et déformation." Paris 6, 2008. http://www.theses.fr/2008PA066596.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'étude des représentations de groupes fondamentaux de surfaces dans le groupe des isométries holomorphes du plan hyperbolique complexe. Le premier chapitre est consacré à des rappels classiques de géométrie hyperbolique complexe. Dans le deuxième chapitre, nous construisons des exemples de sous-groupes discrets du groupe des isométries holomorphes du plan hyperbolique complexe, engendrés par des réflexions complexes. Ces exemples nous permettent d'obtenir dans le troisième chapitre de nouvelles représentations discrètes et fidèles de groupes fondamentaux de surfaces dont nous calculons leur invariant de Toledo en trouvant une primitive de la forme de Kähler du plan hyperbolique complexe. Dans le quatrième chapitre, nous construisons une sous-variété de dimension 8g-8 ou 4g-4 de l'espace de Teichmüller des représentations irréductibles du groupe fondamental de la surface de genre g. Dans le dernier chapitre, nous donnons le premier exemple de représentation irréductible en genre 5 dont l'invariant de Toledo est fractionnaire.
APA, Harvard, Vancouver, ISO, and other styles
47

Sari, Huseyin. "Motion Estimation Using Complex Discrete Wavelet Transform." Master's thesis, METU, 2003. http://etd.lib.metu.edu.tr/upload/1223205/index.pdf.

Full text
Abstract:
The estimation of optical flow has become a vital research field in image sequence analysis especially in past two decades, which found applications in many fields such as stereo optics, video compression, robotics and computer vision. In this thesis, the complex wavelet based algorithm for the estimation of optical flow developed by Magarey and Kingsbury is implemented and investigated. The algorithm is based on a complex version of the discrete wavelet transform (CDWT), which analyzes an image through blocks of filtering with a set of Gabor-like kernels with different scales and orientations. The output is a hierarchy of scaled and subsampled orientation-tuned subimages. The motion estimation algorithm is based on the relationship between translations in image domain and phase shifts in CDWT domain, which is satisfied by the shiftability and interpolability property of CDWT. Optical flow is estimated by using this relationship at each scale, in a coarse-to-fine (hierarchical) manner, where information from finer scales is used to refine the estimates from coarser scales. The performance of the motion estimation algorithm is investigated with various image sequences as input and the effects of the options in the algorithm like curvature-correction, interpolation kernel between levels and some parameter values like confidence threshold iv maximum number of CDWT levels and minimum finest level of detail are also experimented and discussed. The test results show that the method is superior to other well-known algorithms in estimation accuracy, especially under high illuminance variations and additive noise.
APA, Harvard, Vancouver, ISO, and other styles
48

Schwartz, Samuel David. "Machine Learning Techniques as Applied to Discrete and Combinatorial Structures." DigitalCommons@USU, 2019. https://digitalcommons.usu.edu/etd/7542.

Full text
Abstract:
Machine Learning Techniques have been used on a wide array of input types: images, sound waves, text, and so forth. In articulating these input types to the almighty machine, there have been all sorts of amazing problems that have been solved for many practical purposes. Nevertheless, there are some input types which don’t lend themselves nicely to the standard set of machine learning tools we have. Moreover, there are some provably difficult problems which are abysmally hard to solve within a reasonable time frame. This thesis addresses several of these difficult problems. It frames these problems such that we can then attempt to marry the allegedly powerful utility of existing machine learning techniques to the practical solvability of said problems.
APA, Harvard, Vancouver, ISO, and other styles
49

Arnold, Rachel Florence. "The Discrete Hodge Star Operator and Poincaré Duality." Diss., Virginia Tech, 2012. http://hdl.handle.net/10919/27485.

Full text
Abstract:
This dissertation is a uniï¬ cation of an analysis-based approach and the traditional topological-based approach to Poincaré duality. We examine the role of the discrete Hodge star operator in proving and in realizing the Poincaré duality isomorphism (between cohomology and ho- mology in complementary degrees) in a cellular setting without reference to a dual cell complex. More speciï¬ cally, we provide a proof of this version of Poincaré duality over R via the simplicial discrete Hodge star deï¬ ned by Scott Wilson in [19] without referencing a dual cell complex. We also express the Poincaré duality isomorphism over both R and Z in terms of this discrete operator. Much of this work is dedicated to extending these results to a cubical setting, via the introduction of a cubical version of Whitney forms. A cubical setting provides a place for Robin Formanâ s complex of nontraditional differential forms, deï¬ ned in [7], in the uniï¬ cation of analytic and topological perspectives discussed in this dissertation. In particular, we establish a ring isomorphism (on the cohomology level) between Formanâ s complex of differential forms with his exterior derivative and product and a complex of cubical cochains with the discrete coboundary operator and the standard cubical cup product.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
50

Aiello, Antoine. "Environnement oriente objet de modelisation et de simulation a evenements discrets de systemes complexes." Corte, 1997. http://www.theses.fr/1997CORT3031.

Full text
Abstract:
Une etape majeure dans l'analyse et la conception de systemes concerne l'elaboration de modeles. Un modele est une representation simplifiee de la structure et du comportement d'un systeme, qui permet d'anticiper et d'analyser les reactions de systemes existants, mais aussi de concevoir et de tester des systemes en cours de conception. L'analyse, la conception et le test de ces systemes reposent sur un processus de simulation qui a pour objectif la generation de resultats devant se rapprocher le plus possible des reponses du systeme etudie. Differents travaux de recherche ont permis de developper des outils de modelisation et de simulation performants mais neanmoins lies a des domaines d'application specifiques. Au terme de ce constat nous avons decide d'apporter une contribution a l'elaboration d'un environnement general de modelisation et de simulation destine a prendre en compte des systemes issus de domaines differents. Ce memoire presente une approche basee sur une separation explicite entre les phases de modelisation et de simulation. La phase de modelisation est elaboree a partir des notions de hierarchisation et de modeles multivues permettant d'introduire la complexite d'un systeme de facon progressive. La phase de simulation repose pour sa part sur une methodologie a evenements discrets generique, offrant la possibilite de creer automatiquement les simulateurs correspondant aux modeles etudies. Ces travaux ont ete realises a partir de concepts issus de la theorie des objets, offrant ainsi la possibilite d'elaborer un environnement evolutif. La validation de notre approche est mise en oeuvre a travers l'etude de deux problemes appartenant a des domaines d'application differents.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography