To see the other types of publications on this topic, follow the link: Algorithmes à phases.

Dissertations / Theses on the topic 'Algorithmes à phases'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithmes à phases.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Baala, Oumaya. "Protocole de validation en deux phases : algorithme généralisé." Paris 8, 1996. http://www.theses.fr/1996PA081044.

Full text
Abstract:
La conception des nouvelles applications s'appuie, de plus en plus sur le concept de travail cooperatif caracterise par l'autonomie des sites et l'evolution de la topologie d'execution. Cette classe d'application induit de nouveaux besoins en termes de protocoles de validation atomique tels l'adaptation a toute topologie, l'independance vis-a-vis de tout site particulier et une modularite adequate pour permettre l'evolution de la structure. En partant d'un algorithme asynchrone de detection de terminaison distribuee, nous presentons, d'abord, un algorithme de validation atomique qui s'adapte a tout type de topologie et qui possede un seul initiateur. Nous en deduisons des algorithmes qui s'adaptent sur des topologies classiques telles que l'arbre et l'anneau puis, nous les comparons a d'autres algorithmes de la litterature. Ensuite, nous presentons un algorithme de validation qui peut etre initialise par plusieurs sites a la fois. Enfin, nous analysons les proprietes de ces algorithmes
APA, Harvard, Vancouver, ISO, and other styles
2

Maggiochi, Paul. "Développement d'algorithmes de calcul d'équilibres entre phases pour la simulation des procédés chimiques." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT026G.

Full text
Abstract:
Repertoriation, dans un premier temps, des diverses methodes rencontrees dans la litterature et leurs comparaisons. Puis proposition de la nouvelle methode: quasilineaire en debut de recherches, puis connexion (si necessaire) sur une methode de quasi-newton pour accelerer la convergence. Test sur divers flashes di et tri-phasiques
APA, Harvard, Vancouver, ISO, and other styles
3

Deredempt, Olivier. "Étude comparative des algorithmes de recherche des phases de la porteuse et de l'horloge de bits d'un signal à modulation de phase." Toulouse, INPT, 1993. http://www.theses.fr/1993INPT150H.

Full text
Abstract:
Le but de cette these est d'etudier differentes techniques de recherche des phases de la porteuse et de l'horloge de bits pour un signal a modulation de phase. Dans le premier chapitre, nous appliquons le critere du maximum de vraisemblance dans le cas d'un signal de telecommunications en modulations mdpm. Les deuxieme et troisieme chapitres sont consacres a l'etablissement des expressions des algorithmes obtenus dans le chapitre precedent. Le quatrieme chapitre donne le calcul mathematique des caracteristiques pour un filtre de reception en cosinus sureleve. Enfin, le dernier chapitre montre le resultat des simulations de la chaine de transmission avec differents systemes de synchronisation
APA, Harvard, Vancouver, ISO, and other styles
4

Przybylski, Anthony. "Méthode en deux phases pour la résolution exacte de problèmes d'optimisation combinatoire comportant plusieurs objectifs : nouveaux développements et application au problème d'affectation linéaire." Nantes, 2006. http://www.theses.fr/2006NANT2123.

Full text
Abstract:
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes d'optimisation combinatoire multi-objectif par la méthode en deux phases. Pour cela, nous utilisons le problème d'affectation comme support de nos investigations. La méthode en deux phases est un cadre de résolution général qui a été popularisé par Ulungu en 1993 avec comme idée centrale d'exploiter la structure spécifique des problèmes d'optimisation combinatoire pour leur résolution dans un contexte multi-objectif. Elle a depuis été appliquée sur un grand nombre de problèmes, en se limitant toutefois au contexte bi-objectif. Nous apportons des affinements à cette méthode et à son application au problème d'affectation bi-objectif. En particulier, nous proposons des bornes supérieures améliorées et l'utilisation d'un algorithme de ranking comme principale routine pour la seconde phase de la méthode. Nous proposons ensuite une généralisation de cette méthode au contexte multi-objectif, qui est réalisée en deux temps. Pour la première phase, une analyse de la décomposition de l'ensemble des poids en correspondance avec les points supportés extrêmes, nous permet de mettre en évidence une notion d'adjacence géométrique entre ces points, et une condition d'exhaustivité sur leur énumération. La seconde phase consiste en la définition et l'exploration de régions dans lesquelles des énumérations sont nécessaires afin d'achever la résolution du problème. Notre solution repose essentiellement sur une description appropriée de ces régions qui en permet une exploration par analogie avec le cas bi-objectif, et permet donc la réutilisation de stratégies d'exploration existantes pour ce contexte. Les résultats expérimentaux sur le problème d'affectation tri-objectif attestent de l'efficacité de la méthode
The purpose of this work is the exact solution of multi-objective combinatorial optimisation problems with the two phase method. For this, we use assignment problem as a support for our investigations. The two phase method is a general solving scheme that has been popularized by Ulungu in 1993. The main idea of this method is to exploit the specific structure of combinatorial optimisation problems in a multi-objective context. It has been applied to a number of problems, with a limitation on the bi-objective case. We present improvements in this method and in its application to the bi-objective assignment problem. In particular, we propose improved upper bounds and the use of a ranking algorithm as main routine in the second phase of the method. We propose next a generalisation of this method to the multi-objective case, done in two steps. For the first phase, we analyse the weight set decomposition in correspondance with the nondominated extreme points. This allows us to highlight a geometric notion of adjacency between these points and an optimality condition on their enumeration. The second phase consists in the definition and the exploration of the area inside of which enumerations are required to finalize the resolution to the problem. Our solution is based primarily on an appropriate description of this area, that allows to explore it by analogy with the bi-objective case. It is therefore possible to reuse a strategy developped for this case. Experimental results on three-objective assignment problem show the efficiency of the method
APA, Harvard, Vancouver, ISO, and other styles
5

Vincent, Thomas. "Caractérisation des solutions efficaces et algorithmes d’énumération exacts pour l’optimisation multiobjectif en variables mixtes binaires." Nantes, 2013. http://archive.bu.univ-nantes.fr/pollux/show.action?id=c984a17c-6904-454d-9b3a-e63846e9fb9b.

Full text
Abstract:
Dans ce travail, nous nous intéressons à la résolution exacte de problèmes d’optimisation multiobjectif en variables mixtes binaires. La nature mixte des variables introduit d’importantes différences par rapport aux contextes purement discrets ou continus. Nous proposons donc de prendre en compte ces différences grâce à une représentation appropriée des ensembles de solutions ainsi qu’une procédure de mise à jour dédiée. Ces propositions nous permettent, dans le contexte biobjectif, d’adapter deux méthodes de résolution usuellement appliquées aux problèmes combinatoires : la procédure de Branch & Bound et la méthode en deux phases. Nous proposons de nombreux affinements pour ces méthodes, comme de nouveaux ensembles bornant ou des stratégies de cheminement. À partir de nos observations sur leurs performances, nous proposons une nouvelle routine pour la seconde phase de la méthode en deux phases, reprenant les points forts des méthodes étudiées. Dans le contexte triobjectif, nous étendons notre représentation des ensembles de solutions en procédant par analogie avec le cas biobjectif. Les méthodes de résolution sont également adaptées à ce contexte et étudiées. En particulier, la décomposition de la zone de recherche lors de la seconde phase est décrite en détail. La solution logicielle proposée a été appliquée sur un problème réel : l’évaluation d’une politique de choix de véhicules. Les choix concernés vont de véhicules conventionnels aux véhicules électriques, eux-mêmes alimentés par une source d’électricité classique ou par panneaux solaires
The purpose of this work is the exact solution of multiple objective binary mixed integer linear programmes. The mixed nature of the variables implies significant differences with purely continuous or purely discrete programmes. Thus, we propose to take these differences into account using a proper representation of the solution sets and a dedicated update procedure. These propositions allow us to adapt for the biobjective case two solution methods commonly used for combinatorial problems: the Branch & Bound algorithm and the two phase method. Several improvements are proposed, such as bound sets or visiting strategies. We introduce a new routine for the second phase of the two phase method that takes advantage of all the relevant features of the previously studied methods. In the 3-objective context, the solution sets representation is extended by analogy with the biobjective case. Solutions methods are extended and studied as well. In particular, the decomposition of the search area during the second phase is thoroughly described. The proposed software solution has been applied on a real world problem: evaluation of a vehicle choice policy. The possible choices range from classical to electric vehicles that are powered by grid or solar power
APA, Harvard, Vancouver, ISO, and other styles
6

Mahamdi, Célia. "Multi-Consensus distribué : agrégation et révocabilité." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS426.

Full text
Abstract:
Cette thèse présente deux contributions dans le domaine des systèmes distribués : OMAHA et le Consensus f-Révocable. OMAHA (Opportunistic Message Aggregation for pHase-based Algorithms) est un mécanisme d'agrégation de messages conçu pour les algorithmes à phases. Dans les environnements Cloud, où plusieurs applications partagent la même infrastructure, la bande passante est une ressource critique. Dans les datacenters, une partie importante du trafic est consacrée aux petits messages. Chaque message possède un en-tête, ainsi, l'accumulation de ces petits messages pose un véritable problème et entraîne une consommation non négligeable de bande passante. Plusieurs mécanismes ont été proposés pour adresser ce défi, mais peu d'entre eux prennent en compte les caractéristiques applicatives. Ils reposent principalement sur une agrégation des messages au niveau de la couche réseau. OMAHA exploite les spécificités des algorithmes à phases pour agréger intelligemment et de manière opportuniste les messages. Bien que gourmands en messages, de très nombreuses applications reposent sur des algorithmes à phases (Google Spanner, Zookeeper, etc.). Cependant, ils possèdent un avantage majeur : des communications prévisibles. En anticipant les futures communications, OMAHA retarde les messages en les regroupant avec d'autres destinés au même processus. Cela permet de réduire le nombre de messages envoyés sur le réseau et donc une économie de bande passante. Nos expériences montrent des économies de bande passante allant jusqu'à 30%, tout en limitant la dégradation de la latence à 5% pour le célèbre algorithme de Paxos. Dans les systèmes distribués, atteindre un consensus sur une action ou une valeur est un défi complexe, surtout lorsque les processus sont soumis à des contraintes. De nombreux systèmes, tels que les systèmes multi-agents (véhicules autonomes, gestion d'agenda, robotique, etc.) ou encore les systèmes d'allocation de ressources, doivent respecter des contraintes tout en atteignant un objectif global commun. Cependant, les algorithmes de consensus traditionnels ne prennent pas en compte ces contraintes, la décision se basant uniquement sur les valeurs proposées par les processus. Une solution triviale consisterait à recueillir toutes les contraintes, mais en raison de l'asynchronisme et des pannes, cela est impossible. Pour tolérer les pannes, certains algorithmes définissent un nombre maximal de fautes qu'ils peuvent supporter. Cela permet à l'algorithme de progresser sans attendre la réponse de tous les processus. En conséquence, la valeur décidée est souvent imposée par un sous-ensemble de processus, la majorité. Les contraintes de la minorité sont ainsi ignorées. Pour répondre à ce problème, nous avons introduit le Consensus f-Révocable. Ce consensus revisité permet de choisir une valeur qui respecte les contraintes des processus tout en offrant la possibilité de révoquer une décision prise par la majorité si celle-ci viole les contraintes d'un processus de la minorité. La convergence est assurée car le nombre de révocations est borné par le nombre de processus appartenant à la minorité. Nous avons développé deux adaptations de l'algorithme Paxos pour mettre en pratique ce nouveau consensus
This thesis presents two contributions to the field of distributed systems: OMAHA and the f-Revoke Consensus.OMAHA (Opportunistic Message Aggregation for pHase-based Algorithms) is a message aggregation mechanism designed for phase-based algorithms. In cloud environments, multiple applications share the same infrastructure, making bandwidth a critical resource. A significant portion of traffic in data centers consists of small messages. Each message includes a header, leading to substantial bandwidth consumption. Several mechanisms have been proposed to address this issue, but few consider application-specific characteristics. Most rely on aggregation at the network layer. OMAHA leverages the features of phase-based algorithms to intelligently and opportunistically aggregate messages. Many applications, such as Google Spanner and Zookeeper, depend on phase-based algorithms. They are often message-intensive but offer a key advantage: predictable communications. By anticipating future communications, OMAHA delays messages and groups them with others intended for the same process. This approach reduces the number of messages sent over the network, resulting in bandwidth savings. Our experiments show bandwidth saving of up to 30%, while limiting latency degradation to 5% for the well-known Paxos algorithm. In distributed systems, achieving consensus on an action or value is complex, especially when processes face constraints. Many systems, including multi-agent systems (like autonomous vehicles and robotics) and resource allocation systems, need to respect these constraints while working towards a common goal. Unfortunately, traditional consensus algorithms often overlook these constraints, focusing only on the values proposed by the processes. A straightforward solution would be to gather all constraints, but due to asynchrony and potential failures, this is impossible. To handle failures, some algorithms set a limit on the number of faults they can tolerate. This allows them to move forward without waiting for responses from every process. As a result, the final decision is made by a subset of processes known as the majority. This leads to the exclusion of constraints from the minority. To tackle this problem, we introduced the f-Revoke Consensus. This new approach enables the selection of a value that considers processes' constraints. It also allows for the revocation of a majority decision if it violates the constraints of a minority process. Importantly, convergence is ensured because the number of revocations is limited by the size of the minority. We developed two adaptations of the Paxos algorithm to implement this new consensus
APA, Harvard, Vancouver, ISO, and other styles
7

Hollette, Matthieu. "Modélisation de la propagation des ondes élastiques dans un milieu composite à microstructure 3D." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00840603.

Full text
Abstract:
En contrôle non-destructif par ultrasons, la simulation présente un intérêt majeur en permettant à la fois d'optimiser les configurations de contrôle des pièces et de simplifier l'analyse des données acquises. Cette thèse traite de la modélisation de la propagation des ultrasons dans les matériaux composites tissés. Ces matériaux sont constitués de fibres de Carbone (micrométriques) regroupées en mèches (millimétriques) qui sont ensuite tissées pour former une couche de matériau : leur structure est donc hétérogène à deux échelles distinctes. L'étude à l'échelle du tissage nécessite la connaissance préalable des propriétés mécaniques des mèches. Nous proposons deux méthodes visant à effectuer l'homogénéisation dynamique du matériau à l'échelle microscopique. Une première consiste à identifier les rigidités complexes d'un milieu effectif représentatif de la mèche en comparant les nombres d'ondes des modes guidés s'y propageant à ceux calculés dans un milieu hétérogène de même géométrie ; nous avons développé un algorithme génétique permettant de faire correspondre les jeux de nombres d'onde, dont l'application permet d'identifier certaine des rigidités recherchées. La seconde consiste à étendre un modèle existant permettant d'homogénéiser la structure de la mèche en tenant compte de la diffraction multiple des ondes de volume par les fibres. Le modèle initial (modèle à trois phases) ne traitant que le cas de l'incidence normale aux fibres est étendu au cas plus complexe de l'incidence oblique : un calcul de la diffraction multiple en incidence oblique par un réseau dense de fibres et tenant compte de l'anisotropie des différents milieux est donc proposé. Comme pour la première méthode, on utilise un algorithme génétique pour effectuer l'identification des rigidités effectives. Les résultats obtenus nous amènent à remettre en cause certaines hypothèses de base faites pour effectuer cette homogénéisation dynamique ; particulièrement, la dépendance des résultats à l'angle d'incidence semble remettre en cause le choix de la loi de Hooke comme loi fondamentale pour effectuer une homogénéisation dynamique des composites à structures complexes.
APA, Harvard, Vancouver, ISO, and other styles
8

Deroulers, Christophe. "Application de la mécanique statistique à trois problèmes hors d'équilibre : algorithmes, épidémies, milieux granulaires." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00102083.

Full text
Abstract:
Cette thèse de doctorat étudie trois problèmes à l'aide des outils de la mécanique statistique. Nous montrons l'existence du phénomène d'universalité critique pour la transition de phases dynamique de certains algorithmes de recherche combinatoire. Nous donnons les valeurs exactes des exposants critiques et une formule analytique pour une fonction d'échelle. Nous développons un formalisme qui nous permet de calculer un développement perturbatif systématique, en grandes dimensions d'espace, de la fonction de grandes déviations de l'état métastable du processus de contact. Il peut resservir entre autres pour d'autres modèles de biologie des populations. Nous introduisons enfin deux modèles bidimensionnels exactement solubles pour la statique des milieux granulaires. Ils reproduisent la transition de jamming et permettent de discuter les différentes échelles de longueurs de ces milieux et de mettre en défaut l'hypothèse d'Edwards dans un cas réaliste.
APA, Harvard, Vancouver, ISO, and other styles
9

Ben, Sedrine Emna. "Machines à commutation de flux à grand nombre de phases : modèles comportementaux en mode dégradé et élaboration d’une stratégie de commande en vue de l’amélioration de la tolérance aux pannes." Thesis, Cachan, Ecole normale supérieure, 2014. http://www.theses.fr/2014DENS0047/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'étude des modèles comportementaux en mode dégradé des machines pentaphasées à commutation de flux (MCF pentaphasée). Tout d'abord, une comparaison des performances électromagnétiques de cette machine à une machine triphasée équivalente est tout d'abord effectuée. Ces performances sont calculées par la méthode des Eléments Finis (EF 2D) et validées expérimentalement. Les résultats ont montré l'apport de la machine pentaphasée avec un couple massique plus élevé, une ondulation de couple plus faible, un courant de court-circuit plus faible et sa capacité à tolérer des défauts de phases. L'étude de la tolérance aux ouvertures de phases est alors élaborée pour cette MCF pentaphasée. Le comportement de la machine en cas d'ouvertures de phases (du point de vue du couple moyen, de l'ondulation de couple, des pertes Joule et du courant dans le neutre) est présenté. Ensuite, des méthodes de reconfiguration en vue d'améliorer le fonctionnement sont proposées dont une reconfiguration minimale permettant de se retrouver avec une alimentation équivalente à celle d'une machine tétraphasée ou triphasée, un calcul analytique des courants optimaux permettant d'annuler à la fois le courant du neutre et l'ondulation du couple tout en assurant le couple moyen, et finalement une reconfiguration assurée par un algorithme génétique d'optimisation qui est un algorithme non-déterministe multi-objectifs et multi-contraintes. Diverses combinaisons des différents objectifs et contraintes sont, dans ce cadre, effectuées et les courants optimaux sont injectés dans le modèle EF 2D de la machine pour vérifier si les performances ont été améliorées. Le modèle analytique du couple pris en compte dans l'algorithme d'optimisation est alors révisé pour prendre en compte l'influence du mode dégradé. Les différentes solutions du front de Pareto sont analysées et les performances électromagnétiques sont bien améliorées. Cela est vérifié par les calculs EF 2D et suivi d'une validation expérimentale. L'influence des défauts sur les forces magnétiques radiales est également analysée. Dans une seconde partie, l'étude de la tolérance de la machine pentaphasée à commutation de flux aux défauts de courts-circuits est effectuée. Les premières étapes d'isolation des défauts de courts-circuits sont proposées. Par la suite, les courants de courts-circuits, prenant en compte l'effet reluctant de la machine, sont calculés analytiquement et leurs effets sur les performances de la machine sont analysés. Les reconfigurations sont aussi calculées par l'algorithme génétique d'optimisation et les nouvelles références des courants permettent d'améliorer le fonctionnement en mode dégradé. Tous les résultats sont validés par la méthode des EF 2D et expérimentalement. En conclusion, des comparaisons entre la tolérance aux défauts d'ouvertures et de courts-circuits de la machine pentaphasée à commutation de flux sont effectuées et ont permis de conclure quant au fonctionnement de cette machine en modes sain et dégradé avec et sans correction. Les résultats analytiques, numériques et expérimentaux ont montré la bonne efficacité de la commande proposée pour l'amélioration de la tolérance aux défauts d'ouvertures et courts-circuits de phases
In this thesis, we are interested in the study of a five-phase flux switching permanent magnet machine (five-phase FSPM machine) behavior in healthy and faulty mode. First, a comparison of electromagnetic performances between this machine and an equivalent three-phase machine is carried out. These performances are calculated by a Finite Element (FE 2D) model and validated by experiments. Results showed the five-phase machine contribution with a higher torque density, lower torque ripples, lower short-circuit current and ability to tolerate phases faults. The study of open-circuit tolerance is then developed for this five-phase FSPM. The behavior of the machine (the average torque, torque ripples, copper losses and the current in the neutral) in the case of open-circuit on a single and two adjacent and non-adjacent phases is presented. Then reconfiguration methods to improve the operation are proposed including a minimum reconfiguration allowing to end up with a feeding equivalent to that of a three-phase or a four-phase machine, an analytical calculation of optimal currents to cancel both the neutral current and torque ripples while ensuring the average torque, and finally a reconfiguration performed by a genetic optimization algorithm which is a non-deterministic algorithm multi-objective functions and multi-constraints. In this context, various combinations of different objectives and constraints are proposed and optimal currents are injected into the 2D FE model of the machine to see if performances have been improved. The analytical model of the torque used in the optimization algorithm is then revised to take into account the influence of the degraded mode. Different solutions of Pareto front are analyzed and electromagnetic performances are improved. This is verified by FE 2D calculations and followed by experimental validation. Faults impact on the radial magnetic forces is also analyzed. In the second part of this work, the study of the five-phase FSPM machine tolerance to short-circuit faults is performed. First steps of the faults isolation are proposed. Thereafter, short-circuit currents, taking into account the reluctance machine impact, are calculated analytically and their effects on machine performances are analyzed. Reconfigurations are also calculated by the genetic algorithm optimization and new references currents improved the degraded mode operation. All results are validated by the FE 2D calculation and experimentally. In conclusion, comparisons between fault-tolerance to phases openings and short-circuits of the five-phase FSPM machine are performed. Results led to conclude regarding the operation of this machine in healthy and degraded modes with and without correction. Analytical, numerical and experimental results showed good efficiency of the proposed control to improve fault-tolerance to phases openings and short-circuits
APA, Harvard, Vancouver, ISO, and other styles
10

Lesieur, Thibault. "Factorisation matricielle et tensorielle par une approche issue de la physique statistique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS345/document.

Full text
Abstract:
Dans cette thèse, je présente des résultats sur la factorisation de matrice et de tenseur. Les matrices étant un objet omniprésent en mathématique, un grand nombre de problèmes d'apprentissage machine peuvent être transcrits en un problème de factorisation de matrice de petit rang. C'est une des méthodes les plus basiques utilisée dans les méthodes d'apprentissage non supervisé et les problèmes de réduction dimensionnelle. Les résultats présentés dans cette thèse ont pour la plupart déjà été inclus dans des publications antérieures [LKZ 2015]. Le problème de la factorisation de matrice de petit rang devient de plus en plus difficile quand on rajoute des contraintes additionnelles, comme par exemple la positivité d'un des facteurs. Nous présentons ici un cadre dans lequel analyser ce problème sous un angle Bayésien où les priors sur les facteurs peuvent être génériques et où l'output channel à travers duquel la matrice est observée peut être générique aussi. Nous tracerons un parallèle entre le problème de factorisation matricielle et les problèmes de verre de spin vectoriel. Ce cadre permet d'aborder d'une façon unifiée des problèmes qui étaient abordés de façon séparée dans des publications précédentes. Nous dérivons en détail la forme générale des équations de Low-rank Approximate Message Passing (Low-RAMP) ce qui donnera un algorithme de factorisation. Ces équations sont connues en physique statistique sous le nom des équations TAP. Nous dérivons ces équations dans différents cas, pour le modèle de Sherrington-Kirkpatrick, les restricted Boltzmann machine, le modèle de Hopfield ou encore le modèle xy. La dynamique des équations Low-RAMP peut être analysée en utilisant les équations de State Evolution; ces équations sont équivalentes à un calcul des répliques symétriques. Dans la section dévolue aux résultats nous étudierons de nombreux diagrammes de phase et transition de phase dans le cas Bayes-optimale. Nous présenterons différentes typologies de diagrammes de phase et leurs interprétations en terme de performances algorithmiques
In this thesis we present the result on low rank matrix and tensor factorization. Matrices being such an ubiquitous mathematical object a lot of machine learning can be mapped to a low-rank matrix factorization problem. It is for example one of the basic methods used in data analysis for unsupervised learning of relevant features and other types of dimensionality reduction. The result presented in this thesis have been included in previous work [LKZ 201].The problem of low rank matrix becomes harder once one adds constraint to the problem like for instance the positivity of one of the factor of the factorization. We present a framework to study the constrained low-rank matrix estimation for a general prior on the factors, and a general output channel through which the matrix is observed. We draw a paralel with the study of vector-spin glass models -- presenting a unifying way to study a number of problems considered previously in separate statistical physics works. We present a number of applications for the problem in data analysis. We derive in detail ageneral form of the low-rank approximate message passing (Low-RAMP) algorithm that is known in statistical physics as the TAP equations. We thus unify the derivation of the TAP equations for models as different as the Sherrington-Kirkpatrick model, the restricted Boltzmann machine, the Hopfield model or vector (xy, Heisenberg and other) spin glasses. The state evolution of the Low-RAMP algorithm is also derived, and is equivalent to the replica symmetric solution for the large class of vector-spin glass models. In the section devoted to result we study in detail phase diagrams and phase transitions for the Bayes-optimal inference in low-rank matrix estimation. We present a typology of phase transitions and their relation to performance of algorithms such as the Low-RAMP or commonly used spectral methods
APA, Harvard, Vancouver, ISO, and other styles
11

Kreis, Adrien. "Optimisation multiobjectifs de systèmes dynamiques : application à la suspension de groupes motopropulseurs de véhicules automobiles en phase d'avant-projet." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/8591a683-68e4-4103-8942-6ee1042e7cc9.

Full text
Abstract:
L'optimisation constitue un puissant outil d'aide à la conception. Les travaux présentés proposent une stratégie d'optimisation adaptée à l'implantation et au dimensionnement de suspensions de groupes motopropulseurs (GMP). Tout d'abord, une étude bibliographique des méthodes d'optimisation multiobjectifs permet la sélection des méthodes les mieux adaptées à une application aux systèmes dynamiques. Ensuite, une analyse fonctionnelle, et un état de l'art des principes de dimensionnement des suspensions GMP, montrent la nécessité d'obtenir un compromis entre les différentes fonctions attendues d'une suspension GMP. A l'issue de ces deux parties, l'outil multiobjectifs apparaît bien adapté au dimensionnement des suspensions GMP. Une formulation numérique du problème de l'optimisation multiobjectifs d'une suspension GMP en phase d'avant-projet est alors proposée. Elle comprend notamment la modélisation des différents cas de fonctionnement d'une suspension GMP, la formulation des différentes fonctions objectifs et restrictions, ainsi que le calcul des sensibilités de ces fonctions vis-à-vis des variables de conception. Dans cette formalisation, l'accent est mis sur le respect des paramètres usuels et des attentes du concepteur, ainsi que sur la rapidité d'exécution, synonyme de réactivité dans un contexte de conception. Enfin, les stratégies multiobjectifs retenues sont testées sur un cas concret de dimensionnement de suspension GMP. Ces essais sont l'occasion d'apporter des modifications originales à chacune des méthodes afin d'améliorer la qualité des solutions générées, et leur répartition dans l'ensemble de Pareto du problème.
APA, Harvard, Vancouver, ISO, and other styles
12

Aubin, Benjamin. "Mean-field methods and algorithmic perspectives for high-dimensional machine learning." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASP083.

Full text
Abstract:
À une époque où l'utilisation des données a atteint un niveau sans précédent, l'apprentissage machine, et plus particulièrement l'apprentissage profond basé sur des réseaux de neurones artificiels, a été responsable de très importants progrès pratiques. Leur utilisation est désormais omniprésente dans de nombreux domaines d'application, de la classification d'images à la reconnaissance vocale en passant par la prédiction de séries temporelles et l'analyse de texte. Pourtant, la compréhension de nombreux algorithmes utilisés en pratique est principalement empirique et leur comportement reste difficile à analyser. Ces lacunes théoriques soulèvent de nombreuses questions sur leur efficacité et leurs potentiels risques. Établir des fondements théoriques sur lesquels asseoir les observations numériques est devenu l'un des défis majeurs de la communauté scientifique.La principale difficulté qui se pose lors de l’analyse de la plupart des algorithmes d'apprentissage automatique est de traiter analytiquement et numériquement un grand nombre de variables aléatoires en interaction. Dans ce manuscrit, nous revisitons une approche basée sur les outils de la physique statistique des systèmes désordonnés. Développés au long d’une riche littérature, ils ont été précisément conçus pour décrire le comportement macroscopique d'un grand nombre de particules, à partir de leurs interactions microscopiques. Au cœur de ce travail, nous mettons fortement à profit le lien profond entre la méthode des répliques et les algorithmes de passage de messages pour mettre en lumière les diagrammes de phase de divers modèles théoriques, en portant l’accent sur les potentiels écarts entre seuils statistiques et algorithmiques. Nous nous concentrons essentiellement sur des tâches et données synthétiques générées dans le paradigme enseignant-élève. En particulier, nous appliquons ces méthodes à champ moyen à l'analyse Bayes-optimale des machines à comité, à l'analyse des bornes de généralisation de Rademacher pour les perceptrons, et à la minimisation du risque empirique dans le contexte des modèles linéaires généralisés. Enfin, nous développons un cadre pour analyser des modèles d'estimation avec des informations à priori structurées, produites par exemple par des réseaux de neurones génératifs avec des poids aléatoires
At a time when the use of data has reached an unprecedented level, machine learning, and more specifically deep learning based on artificial neural networks, has been responsible for very important practical advances. Their use is now ubiquitous in many fields of application, from image classification, text mining to speech recognition, including time series prediction and text analysis. However, the understanding of many algorithms used in practice is mainly empirical and their behavior remains difficult to analyze. These theoretical gaps raise many questions about their effectiveness and potential risks. Establishing theoretical foundations on which to base numerical observations has become one of the fundamental challenges of the scientific community. The main difficulty that arises in the analysis of most machine learning algorithms is to handle, analytically and numerically, a large number of interacting random variables. In this manuscript, we revisit an approach based on the tools of statistical physics of disordered systems. Developed through a rich literature, they have been precisely designed to infer the macroscopic behavior of a large number of particles from their microscopic interactions. At the heart of this work, we strongly capitalize on the deep connection between the replica method and message passing algorithms in order to shed light on the phase diagrams of various theoretical models, with an emphasis on the potential differences between statistical and algorithmic thresholds. We essentially focus on synthetic tasks and data generated in the teacher-student paradigm. In particular, we apply these mean-field methods to the Bayes-optimal analysis of committee machines, to the worst-case analysis of Rademacher generalization bounds for perceptrons, and to empirical risk minimization in the context of generalized linear models. Finally, we develop a framework to analyze estimation models with structured prior informations, produced for instance by deep neural networks based generative models with random weights
APA, Harvard, Vancouver, ISO, and other styles
13

Kleyn, Werner Frederick. "Decoding algorithms for continuous phase modulation." Master's thesis, University of Cape Town, 2002. http://hdl.handle.net/11427/6984.

Full text
Abstract:
Includes bibliographical references.
Continuous Phase Modulation (CPM) possesses characteristics that make it very attractive for many applications. Efficient non-linear power amplifiers can be used in the transmitters of constant envelope CPM schemes. CPM also allows for the use of simple limiters in the demodulator rather than linear receivers with gain control. These characteristics not only increases the life of the power source, but it improves circuit reliability since less heat is generated. In some applications, such as satellite transmitters, where power and circuit failure is very expensive, CPM is the most attractive choice. Bandwidth efficiency, also, is very attractive, and improves as the order of the scheme increases (together with reduction in modulation index). Still further improvement is obtained through pulse shaping which normally result in partial response schemes as opposed to full-response (CPFSK) schemes. The inherent memory or coding gain of CPM increases the minimum distance, which is a figure of merit for a scheme's error performance. The length of the inherent memory is the constraint length of the scheme. Successful extraction of this inherent memory result in improved power efficiency. By periodic variation of the modulation index as in multi-h CPFSK, a sub class of CPM, coding gain or inherent memory can be significantly improved. CPM demodulation is also less sensitive to fading channels than some other comparable systems. Well-known schemes such as GSM digital mobile systems, DECT and Iridium all use some form of CPM to transport their information. These implementations are normally pulse-shaped FSK or MSK and are used for the reasons above, except that their receivers do not always exploit the inherent memory. Unfortunately, though, when one wants to exploit the inherent memory of higher level CPM schemes, all these attractive characteristics are offset by the complexity of the receiver structures which increases exponentially in complexity as the order or constraint length is increased. Optimum receivers for binary CPFSK were first described by Osborne and Luntz [19] in 1974 and their research was later extended by Schonhoff [26] to include M-ary CPFSK. These receivers evaluate likelihood functions after observing the received signal for a certain number of symbol intervals, say N, then calculate a set of likelihood parameters on which a likelihood ratio test regarding the first symbol is based. These receivers are complex and impractical but does provide valuable insight. This is called maximum likelihood sequence estimation (MLSE). Another way to do MLSE would be to correlate all possible transmitted sequences (reference signals at the demodulator) over a period of N symbol intervals with the received sequence. The first symbol of the reference sequence with which the received sequence has the largest correlation, is decoded as the most likely symbol. The number of reference sequences required at the receiver grow very fast as the observation period increases. Up to now, only the lowest order CPM schemes have feasible optimal receiver structures. The only practical solution thus far for the MLSE of higher order schemes is the use of software implementations of which the Viterbi algorithm is the most popular. Through recursive or sequential processing of data per interval, the number of matched filters required can be reduced. However, for schemes beyond a certain order and constraint length, the Viterbi algorithm's consumption of computational resources reduces its feasibility. Research into CPM is focused mainly on the quest for simpler demodulators and decoders or lower order schemes with better coding gain. In order to gain further insight into CPM, research is approached from different angles.
APA, Harvard, Vancouver, ISO, and other styles
14

Marsh, David Moyle. "Phased Array Digital Beamforming Algorithms and Applications." BYU ScholarsArchive, 2019. https://scholarsarchive.byu.edu/etd/7499.

Full text
Abstract:
With the expansion of unmanned aircraft system (UAS) technologies, there is a growing need for UAS Traffic Management (UTM) systems to promote safe operation and development. To be successful, these UTM systems must be able to detect and track multiple drones in the presence of clutter. This paper examines the implementation of different algorithms on a compact, X-band, frequency modulated continuous wave (FMCW) radar in an effort to enable more accurate detection and estimation of drones. Several algorithms were tested through post processing on actual radar data to determine their accuracy and usefulness for this system. A promising result was achieved through the application of pulse-Doppler processing. Post processing on recorded radar data showed that a moving target indicator successfully separated a target from clutter. An improvement was also noted for the implementation of phase comparison monopulse which accurately estimated angle of arrival (AOA) and required fewer computations than digital beamforming.The second part of this thesis explains the work done on an adaptive broadband, real time beamformer for RF interference (RFI) mitigation. An effective communication system is reliable and can counteract the effects of jamming. Beamforming is an appropriate solution to RFI. To assist in this process FPGA firmware was developed to prepare signals for frequency domain beamforming. This system allows beamforming to be applied to 150 MHz of bandwidth. Future implementation will allow for signal reconstruction after beamforming and demodulation of a communication signal.
APA, Harvard, Vancouver, ISO, and other styles
15

Orús, Lacort Román. "Entanglement, quantum phase transitions and quantum algorithms." Doctoral thesis, Universitat de Barcelona, 2006. http://hdl.handle.net/10803/482202.

Full text
Abstract:
From the seminal ideas of Feynman and until now, quantum information and computation has been a rapidly evolving field. While at the beginning, physicists looked at quantum mechanics as a theoretical framework to describe the fundamental processes that take place in Nature, it was during the 80’s and 90’s that people began to think about the intrinsic quantum behavior of our world as a tool to eventually develop powerful information technologies. As Landauer pointed out, information is physical, so it should not look strange to try to bring together quantum mechanics and information theory. Indeed, it was soon realized that it is possible to use the laws of quantum physics to perform tasks which are unconceivable within the framework of classical physics. For instance, the discovery of quantum teleportation, superdense coding, quantum cryptography, Shor’s factorization algorithm or Grover’s searching algorithm, are some of the remarkable achievements that have attracted the attention of many people, both scientists and non-scientists. This settles down quantum information as a genuine interdisciplinary field, bringing together researchers from different branches of physics, mathematics and engineering. While until recently it was mostly quantum information science that benefited from other fields, today the tools developed within its framework can be used to study problems of different areas, like quantum many-body physics or quantum field theory. The basic reason behind that is the fact that quantum information develops a detailed study of quantum correlations, or quantum entanglement. Any physical system described by the laws of quantum mechanics can then be considered from the perspective of quantum information by means of entanglement theory. It is the purpose of this introduction to give some elementary background about basic concepts of quantum information and computation, together with its possible relation to other fields of physics, like quantum many-body physics. We begin by considering the definition of a qubit, and move then towards the definition of entanglement and the convertibility properties of pure states by introducing majorization and the von Neumann entropy. Then, we consider the notions of quantum circuit and quantum adiabatic algorithm, and move towards what is typically understood by a quantum phase transition, briefly sketching how this relates to renormalization and conformal field theory. We also comment briefly on some possible experimental implementations of quantum computers
Desde las pioneras ideas de Feynman hasta el día de hoy, la información y computación cuánticas han evolucionado de forma veloz. Siendo la mecánica cuántica en sus orígenes considerada esencialmente como un marco teórico en el que poder explicar ciertos procesos fundamentales que acontecían en la Naturaleza, fue durante los años 80 y 90 cuando se empezó a pensar sobre el comportamiento intrínsecamente cuántico del mundo en el que vivimos como una herramienta con la que poder desarrollar tecnologías de la información más potentes, basadas en los mismos principios de la física cuántica. Tal y como Landauer dijo, la información es física, por lo que no debe en absoluto extrañarnos el que se intentara comulgar la mecánica cuántica con la teoría de la información. Y nada más lejos de la realidad, pues pronto se vio que era posible utilizar las leyes de la física cuántica para realizar tareas inconcebibles desde un punto de vista clásico. Por ejemplo, el descubrimiento de la teleportación, la codificación superdensa, la criptografía cuántica, el algoritmo de factorización de Shor o el algoritmo de búsqueda de Grover, constituyen algunos de los logros remarcables que han atraído la atención de mucha gente, dentro y fuera de la ciencia. Queda la información cuántica, pues, constituida como un campo genuinamente pluridisciplinar, en el que se concentran investigadores provenientes de diferentes ramas de la física, las matemáticas y la ingeniería. Mientras en sus orígenes era la información cuántica quien se beneficiaba del conocimiento de otros campos, a día de hoy las herramientas desarrolladas en el marco de la teoría cuántica de la información pueden ser asimismo usadas en el estudio de problemas de diferentes áreas, como la física de muchos cuerpos o la teoría cuántica de campos. Ello es debido al estudio detallado que la información cuántica desarrolla de las correlaciones cuánticas, o entrelazamiento cuántico. Cualquier sistema físico descrito por las leyes de la mecánica cuántica se puede por lo tanto considerar bajo la perspectiva de la teoría cuántica de la información a través de la teoría del entrelazamiento.
APA, Harvard, Vancouver, ISO, and other styles
16

Ahmeda, Shubat Senoussi. "Adaptive target tracking algorithms for phased array radar." Thesis, University of Nottingham, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.336953.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Varner, Christopher Champion. "DGPS carrier phase networks and partial derivative algorithms." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0027/NQ49546.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Farrell, C. T. "New algorithms for high accuracy phase shifting interferometry." Thesis, University of Aberdeen, 1993. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.592420.

Full text
Abstract:
Phase shifting interferometry is a technique that allows the phase information of a wavefront to be calculated from several phase shifted interferograms. Traditionally this technique requires the use of at least three interferograms separated in phase by predetermined or equal amounts. The main problem limiting the technique's accuracy has been in accurately applying the required phase shifts. In this thesis the problem has been addressed by the derivation and application of new algorithms for phase step measurement and wavefront phase calculation. A novel method, utilising Lissajous figures and ellipse fitting, is described that uses the spatial information of the interferograms themselves to calculate the phase difference between interferograms, as well as their intensity bias and modulation. Two algorithms, referred to as A and B, are derived that use the information calculated in the ellipse fitting technique and do not need equal or predetermined phase steps. One of these algorithms can calculate wavefront phase from only two interferograms. A further two phase extraction algorithms in which step sizes need not be known or be equal are described. Both algorithms use Lissajous figures and ellipse fitting, but the ellipses are formed from temporal, rather than spatial, intensity profiles. The first algorithm, referred to as the inter-pixel algorithm, requires a minimum of five interferograms from which intensity offset and intensity modulation are calculated at each pixel and the relative phase is calculated for all pixels with respect to a reference pixel. The other algorithm, referred to as the dual-step algorithm, requires a minimum of ten interferograms and two phase stepping mechanisms, one of which must be absolutely repeatable. It also calculates intensity offset and modulation at each pixel but requires the use of algorithm A or B to do the final wavefront phase calculation.
APA, Harvard, Vancouver, ISO, and other styles
19

Green, Roger James. "The use of Fourier transform methods in automatic fringe pattern analysis." Thesis, King's College London (University of London), 1990. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.307203.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Calmeyn, Timothy Joseph. "A design algorithm for continuous melt-phase polyester manufacturing processes optimal design, product sensitivity, and process flexibility." Ohio : Ohio University, 1998. http://www.ohiolink.edu/etd/view.cgi?ohiou1175097000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Bartee, Jon A. "Genetic algorithms as a tool for phased array radar design." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2002. http://library.nps.navy.mil/uhtbin/hyperion-image/02Jun%5FBartee.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

OUKSSISSE, LAHCEN. "Etude comparative des algorithmes pour l'interferometrie holographique a decalage de phase." Université Louis Pasteur (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR13145.

Full text
Abstract:
L'application des methodes d'extraction de la phase en interferometrie holographique a decalage de phase se trouve generalement confrontee aux erreurs systematiques dues au modulateur de phase, aux erreurs aleatoires dites statistiques, et a celles introduites par le systeme d'acquisition et de traitement du signal. Notre objectif est de qualifier comparativement le comportement des differents algorithmes d'analyse des franges d'interference en utilisant la methode de decalage de phase dite aussi de quasi-heterodynage. Nous avons fait appel au modele mathematique base sur la transformee de fourier qui nous a permit d'optimiser la detection synchrone et d'etudier la propagation des erreurs, en presence et en absence des erreurs systematiques. La precision accessible des mesures de la phase a ete calculee. Sur ces bases, des ameliorations pour les methodes d'analyse des franges d'interference ont ete proposees. Plusieurs algorithmes de demodulation de la phase sont analyses pour caracteriser leurs effets. Ceci est ensuite applique a l'optimisation d'un processus de mesure de la phase. Nous avons pu caracteriser ainsi la susceptibilite des differentes techniques analytiques de demodulation de l'information en presence de la principale source d'erreurs et proposer des solutions adequates. En presence d'erreurs systematiques et de non-linearites provenant de la reponse des systemes de detection, les algorithmes d'extraction de la phase sont souvent inadequats pour etre integres dans les systemes de mesure si la qualite de la mesure doit etre conservee. Nous nous sommes donc penches sur une autre categorie d'algorithmes de decalage de phase basee sur l'analyse de fourier associee a la methode de detection synchrone numerique ou heterodyne. Les performances de ces algorithmes en presence d'erreurs systematiques ont ete ensuite analysees. Le processus de calcul de la phase depend de la nature des signaux porteurs de l'information et des fonctions de correlation qui doivent etre convenablement choisies. Nous avons construit des algorithmes pour l'interferometrie holographique a decalage de phase permettant de supprimer les effets des composantes harmoniques superieures a un ordre bien defini en presence et en absence des erreurs systematiques. Le pas entre les decalages de phase et le nombre d'enregistrements sont determines avec precision.
APA, Harvard, Vancouver, ISO, and other styles
23

Hautphenne, Sophie. "An algorithmic look at phase-controlled branching processes." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210255.

Full text
Abstract:
Branching processes are stochastic processes describing the evolution of populations of individuals which reproduce and die independently of each other according to specific probability laws. We consider a particular class of branching processes, called Markovian binary trees, where the lifetime and birth epochs of individuals are controlled by a Markovian arrival process.

Our objective is to develop numerical methods to answer several questions about Markovian binary trees. The issue of the extinction probability is the main question addressed in the thesis. We first assume independence between individuals. In this case, the extinction probability is the minimal nonnegative solution of a matrix fixed point equation which can generally not be solved analytically. In order to solve this equation, we develop a linear algorithm based on functional iterations, and a quadratic algorithm, based on Newton's method, and we give their probabilistic interpretation in terms of the tree.

Next, we look at some transient features for a Markovian binary tree: the distribution of the population size at any given time, of the time until extinction and of the total progeny. These distributions are obtained using the Kolmogorov and the renewal approaches.

We illustrate the results mentioned above through an example where the Markovian binary tree serves as a model for female families in different countries, for which we use real data provided by the World Health Organization website.

Finally, we analyze the case where Markovian binary trees evolve under the external influence of a random environment or a catastrophe process. In this case, individuals do not behave independently of each other anymore, and the extinction probability may no longer be expressed as the solution of a fixed point equation, which makes the analysis more complicated. We approach the extinction probability, through the study of the population size distribution, by purely numerical methods of resolution of partial differential equations, and also by probabilistic methods imposing constraints on the external process or on the maximal population size.

/

Les processus de branchements sont des processus stochastiques décrivant l'évolution de populations d'individus qui se reproduisent et meurent indépendamment les uns des autres, suivant des lois de probabilités spécifiques.

Nous considérons une classe particulière de processus de branchement, appelés arbres binaires Markoviens, dans lesquels la vie d'un individu et ses instants de reproduction sont contrôlés par un MAP. Notre objectif est de développer des méthodes numériques pour répondre à plusieurs questions à propos des arbres binaires Markoviens.

La question de la probabilité d'extinction d'un arbre binaire Markovien est la principale abordée dans la thèse. Nous faisons tout d'abord l'hypothèse d'indépendance entre individus. Dans ce cas, la probabilité d'extinction s'exprime comme la solution minimale non négative d'une équation de point fixe matricielle, qui ne peut être résolue analytiquement. Afin de résoudre cette équation, nous développons un algorithme linéaire, basé sur l'itération fonctionnelle, ainsi que des algorithmes quadratiques, basés sur la méthode de Newton, et nous donnons leur interprétation probabiliste en termes de l'arbre que l'on étudie.

Nous nous intéressons ensuite à certaines caractéristiques transitoires d'un arbre binaire Markovien: la distribution de la taille de la population à un instant donné, celle du temps jusqu'à l'extinction du processus et celle de la descendance totale. Ces distributions sont obtenues en utilisant l'approche de Kolmogorov ainsi que l'approche de renouvellement.

Nous illustrons les résultats mentionnés plus haut au travers d'un exemple où l'arbre binaire Markovien sert de modèle pour des populations féminines dans différents pays, et pour lesquelles nous utilisons des données réelles fournies par la World Health Organization.

Enfin, nous analysons le cas où les arbres binaires Markoviens évoluent sous une influence extérieure aléatoire, comme un environnement Markovien aléatoire ou un processus de catastrophes. Dans ce cas, les individus ne se comportent plus indépendamment les uns des autres, et la probabilité d'extinction ne peut plus s'exprimer comme la solution d'une équation de point fixe, ce qui rend l'analyse plus compliquée. Nous approchons la probabilité d'extinction au travers de l'étude de la distribution de la taille de la population, à la fois par des méthodes purement numériques de résolution d'équations aux dérivées partielles, ainsi que par des méthodes probabilistes en imposant des contraintes sur le processus extérieur ou sur la taille maximale de la population.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
24

Munu, Mbalu. "Tracking algorithms with variable update time for phased array radar." Thesis, University of Nottingham, 1994. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.239456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Faure, Cynthia. "Détection de ruptures et identification des causes ou des symptômes dans le fonctionnement des turboréacteurs durant les vols et les essais." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E059/document.

Full text
Abstract:
L'analyse de séries temporelles multivariées, créées par des capteurs présents sur le moteur d'avion durant un vol ou un essai, représente un nouveau challenge pour les experts métier en aéronautique. Chaque série temporelle peut être décomposée de manière univariée en une succession de phases transitoires, très connues par les experts, et de phases stabilisées qui sont moins explorées bien qu'elles apportent beaucoup d'informations sur le fonctionnement d'un moteur. Notre projet a pour but de convertir ces séries temporelles en une succession de labels, désignant des phases transitoires et stabilisées dans un contexte bivarié. Cette transformation des données donne lieu à plusieurs perspectives : repérer dans un contexte univarié ou bivarié les patterns similaires durant un vol, trouver des tronçons de courbes similaires à une courbe donnée, identifier les phases atypiques, détecter ses séquences de labels fréquents et rares durant un vol, trouver le vol le plus représentatif et déterminer les vols «volages». Ce manuscrit propose une méthodologie pour automatiquement identifier les phases transitoires et stabilisées, classer les phases transitoires, labelliser des séries temporelles et les analyser. Tous les algorithmes sont appliqués à des données de vols et les résultats sont validés par les experts
Analysing multivariate time series created by sensors during a flight or a bench test represents a new challenge for aircraft engineers. Each time series can be decomposed univariately into a series of stabilised phases, well known by the expert, and transient phases that are merely explored but very informative when the engine is running. Our project aims at converting these time series into a succession of labels, designing transient and stabilised phases in a bivariate context. This transformation of the data will allow several perspectives: tracking similar behaviours or bivariate patterns seen during a flight, finding similar curves from a given curve, identifying the atypical curves, detecting frequent or rare sequences of labels during a flight, discovering hidden multivariate structures, modelling a representative flight, and spotting unusual flights. This manuscript proposes : methodology to automatically identify transient and stabilized phases, cluster all engine transient phases, label multivariate time series and analyse them. All algorithms are applied on real flight measurements with a validation of the results from expert knowledge
APA, Harvard, Vancouver, ISO, and other styles
26

Chen, Li. "Design of linear phase paraunitary filter banks and finite length signal processing /." Hong Kong : University of Hong Kong, 1997. http://sunzi.lib.hku.hk/hkuto/record.jsp?B18678233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

[Verfasser], Monarin Uervirojnangkoorn. "Genetic algorithms for phase determination in macromolecular crystallography / Monarin Uervirojnangkoorn." Lübeck : Zentrale Hochschulbibliothek Lübeck, 2013. http://d-nb.info/1036153274/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Avallone, Niccolo. "Hydrogen dynamics in solids : quantum diffusion and plastic phase transition in hydrates under pressure." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS622.

Full text
Abstract:
Les simulations à l'échelle atomique des hydrates d'ammoniac posent des défis théoriques et numériques majeurs pour plusieurs raisons. La description de systèmes désordonnés et/ou frustrés nécessite des simulations à grande échelle (plusieurs milliers d'atomes sur des échelles de temps de l'ordre de la nanoseconde). Ceci rend impossible l'utilisation de méthodes ab initio pour décrire les interactions interatomiques. La présence d’hydrogène induit une grande complexité du diagramme de phase. Les propriétés spécifiques des liaisons hydrogène entre les molécules d'eau et d'ammoniac expliquent la plasticité, les sauts de protons produisent des phases ioniques et à haute pression, le comportement quantique des protons n'est pas négligeable : l'approximation habituelle de la dynamique moléculaire, qui traite les noyaux atomiques comme des objets classiques, n'est plus valable. Après un chapitre théorique sur les techniques de simulation utilisées, le deuxième chapitre de ce travail traite du problème de la diffusion du proton dans un solide avec la prise en compte des effets quantiques nucléaires. Deux classes principales de méthodes de dynamique moléculaire sont comparées, i.e. les méthodes de bain quantique (QTB/adQTB), basées sur l'équation de Langevin généralisée et les méthodes dérivant du formalisme des intégrales de chemin de la mécanique quantique ((T)RPMD). L'objectif est de déterminer quelle méthode serait la plus précise et numériquement la moins coûteuse pour étudier le saut et la diffusion des protons dans les hydrates d'ammoniac. La méthode (T)RPMD semble remplir approximativement cet objectif, tandis que les méthodes QTB/adQTB surestiment considérablement la diffusion. Toutefois, leur faible coût de calcul ne les exclut pas complètement de l'étude des propriétés quantiques de ces systèmes. Le troisième chapitre présente une étude théorique de la transition de phase cristal-plastique dans l'hémi-hydrate d'ammoniac, entre 2GPa et 10GPa, et entre 300K et 600K. Les résultats expérimentaux montrent l'apparition de phases plastiques et désordonnées, bien qu'ils ne fournissent pas d'explication complète sur les mécanismes à l'origine des transitions de phase. Nous utilisons principalement la dynamique moléculaire classique, couplée à des champs de force, afin de simuler plus de cent-milles atomes sur des échelles de temps de quelques dizaines de nanosecondes. Nos résultats localisent correctement la transition de phase et détectent le changement d'un cristal monoclinique à un alliage moléculaire désordonné avec une cellule cubique à corps centré, qui fond à très haute température. De plus, nous pouvons expliquer comment le réseau de liaisons hydrogène évolue avec la température, et de caractériser la phase plastique en termes de désordre orientationnel des dipôles moléculaires. Enfin, nous avons déterminé la diffusion moléculaire qui se produit à la transition et au-dessus, ce qui permet la formation de l'alliage eau-ammoniac prévu par les expériences. Les effets quantiques nucléaires ont été testés par les méthodes adQTB et (T)RPMD, en évaluant quelles propriétés sont les plus affectées par la nature quantique des atomes d'hydrogène
Atomic-scale simulations of ammonia hydrates pose major theoretical and numerical challenges for several reasons. The description of disordered and/or frustrated systems requires large-scale simulations (several thousand atoms on nanosecond time scales). This makes impossible to use ab initio methods to describe interatomic interactions. Moreovere, the presence of hydrogen leads to a highly complex phase diagram. The specific properties of hydrogen bonds between water and ammonia molecules explain the plasticity, proton jumps produce ionic phases, and at high pressures, the quantum behavior of protons is not negligible: the usual molecular dynamics approximation, which treats atomic nuclei as classical objects, is no longer valid. After a theoretical chapter on the simulation techniques used, the second chapter of this work deals with the problem of proton diffusion in a solid, taking nuclear quantum effects into account. Two main classes of molecular dynamics methods are compared, i.e. quantum bath methods (QTB/adQTB), based on the generalized Langevin equation, and methods derived from the quantum mechanical path integral formalism ((T)RPMD). The aim is to determine which method would be the most accurate and numerically the least expensive for studying proton hopping and diffusion in ammonia hydrates. The (T)RPMD method appears to approximately meet this objective, while the QTB/adQTB methods considerably overestimate diffusion. However, their low computational cost does not completely exclude them from the study of the quantum properties of these systems. The third chapter presents a theoretical study of the crystal-plastic phase transition in ammonia hemihydrate, between 2GPa and 10GPa, and between 300K and 600K. The experimental results show the appearance of plastic and disordered phases, although they do not provide a complete explanation of the mechanisms behind the phase transitions. We mainly use classical molecular dynamics, coupled with force fields, to simulate 100,000 atoms on time scales of tens of nanoseconds. Our results correctly localize the phase transition and detect the change from a monoclinic crystal to a disordered molecular alloy with a bcc cell, which melts at very high temperatures. Furthermore, we can explain how the hydrogen bonding network evolves with temperature, and characterize the plastic phase in terms of the orientational disorder of the molecular dipoles. Finally, we have determined the molecular diffusion that occurs at and above the transition, enabling the formation of the water-ammonia alloy predicted by the experiments. Nuclear quantum effects have been tested by adQTB and (T)RPMD methods, assessing which properties are most affected by the quantum nature of hydrogen atoms
APA, Harvard, Vancouver, ISO, and other styles
29

Andreu, Altava Ramon. "Calcul du profil optimal d'un aéronef dans les phases de descente et d'approche." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30026.

Full text
Abstract:
Le contexte actuel de croissance du trafic aérien, qui double tous les quinze ans, pose des problèmes environnementaux et remet en cause le développement durable de l'aviation. De plus, d'autres facteurs comme l'entrée en vigueur de nouveaux décrets relatifs aux questions environnementales, la volatilité des cours du pétrole et aussi la concurrence exacerbée du marché des compagnies aériennes conduisent au fait que les sujets de recherche liés à l'optimisation fine du profil de vol de l'avion et à l'amélioration de l'efficacité des opérations aériennes sont devenus des enjeux majeurs pour l'aviation. Le système de gestion du vol, ou FMS selon l'acronyme anglais, est un système de navigation embarqué, courant dans tous les avions de transport commercial, qui permet à l'équipage de gérer le plan de vol latéral et vertical. Du fait que les systèmes avioniques aient des performances limitées, les algorithmes embarqués font des calculs sur la base d'hypothèses très conservatrices. Ceci conduit à des écarts notoires entre les calculs du FMS et le profil réellement volé par l'avion dans un environnement dynamique du vol. L'objectif de cette thèse est donc de développer une fonction bord intégrée au concept de poste de pilotage des futurs cockpit Airbus, permettant de générer des trajectoires optimisées mais aussi tenant compte de l'environnement dynamique de l'avion. Pour cela, cette nouvelle fonction bord qui a été développée adapte la stratégie et le profil de vol de façon régulière pour minimiser le coût global de l'opération. Les principes de gestion énergétique d'un aéronef sont utilisés pour optimiser le profil vertical de vol dans les phases de descente et d'approche dans le but de réduire la consommation carburant, les émissions de gaz à effet de serre et potentiellement le bruit généré par les moteurs et les surfaces aérodynamiques. La fonction proposée est basée sur les principes de la programmation dynamique et plus particulièrement sur l'algorithme A*. Elle cherche à minimiser une fonction de coût en traversant un espace de recherche généré au fur et à mesure que l'algorithme avance dans ses calculs. Non seulement la trajectoire résultante est optimale mais aussi relie la position courante de l'avion avec le seuil de piste de l'aéroport d'arrivée indépendamment du mode de guidage et des conditions énergétiques, ce qui est une nouveauté par rapport au FMS.[...]
The continued increase of air traffic, which doubles every 15 years, produces large economic benefits but poses environmental issues that put at risk the sustainable development of air transport. Other factors such as jet fuel prices volatility, the introduction of new environmental regulations and intense competition in the airline industry, have stimulated in the last years research on trajectory optimization and flight efficiency topics. The Flight Management System (FMS) is an onboard avionic system, standard in all transport aircraft, which is used by flight crews to manage the lateral and vertical flight-plan. Since current avionic systems are limited in terms of computational capacity, the computations performed by their algorithms are usually done on the basis of conservative hypotheses. Thus, notorious deviations may occur between FMS computations and the actual flight profile flown by the aircraft. The goal of this thesis is to develop an onboard function, which could be integrated in future Airbus cockpits, that computes optimal trajectories, readjusts the flight strategy according to the dynamic aircraft condition and minimizes operating costs. Flight energy management principles has been used for optimizing aircraft trajectories in descent and approach phases with respect to fuel consumption, greenhouse gas and noise emissions. The proposed function has been developed on the basis of dynamic programming techniques, in particular the A* algorithm. The algorithm minimizes a certain objective function by generating incrementally the search space. The exploration of the search space gives the optimal profile that links the aircraft current position to the runway threshold, independently of the current flight mode and aircraft energy condition. Results show 13% fuel savings and a decrease of 12% in gas emissions compared with a best-in-class FMS. Furthermore, the algorithm proposes the flight strategy to dissipate the excess of energy in situations where aircraft fly too high and/or too fast close to the destination runway. A preliminary operational evaluation of the computed trajectories has been conducted in the flight simulators. These tests demonstrate that the computed trajectories can be tracked with current guidance modes, although new modes should be required to decrease the workload of flight crews. In conclusion, this paper constitutes a solid background for the generation of real-time optimal trajectories in light of the automation of descent and approach flight phases
APA, Harvard, Vancouver, ISO, and other styles
30

Topiwala, Diven. "The phase retrieval algorithm as a dynamical system." Thesis, De Montfort University, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.400681.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Maciel, Lucas da Silva. "A novel swarm-based algorithm for phase unwrapping." reponame:Repositório Institucional da UFSC, 2014. https://repositorio.ufsc.br/xmlui/handle/123456789/129595.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2014.
Made available in DSpace on 2015-02-05T21:16:46Z (GMT). No. of bitstreams: 1 331656.pdf: 3739147 bytes, checksum: 4434e631824c3243a2eb1e0e7148fe81 (MD5) Previous issue date: 2014
O correto funcionamento de tubulações subterrâneas para o transporte de gás e petróleo depende de um monitoramento frequente e correto dos estados de tensões. Avanços recentes na medição de tensões residuais têm aplicado métodos ópticos em conjunto com o alívio de tensões de maneira a avaliar o campo de tensões no componente. Estes métodos requerem uma etapa de remoção do salto de fase para interpretar corretamente os dados adquiridos. Esta remoção do salto de fase tem sido um desafio para diversas aplicações metrológicas. Este trabalho tem por objetivo propor uma abordagem original para a solução deste problema. Neste trabalho é apresentado o algoritmo proposto assim como diversos resultados com diferentes imagens comparados com métodos consagrados.A luz, comportando-se como onda, obedece ao princípio de superposição que por sua vez dá lugar ao fenômeno de interferência. Este fenômeno pode ser utilizado de diversas maneiras para a medição de superfícies e formas geométricas. No entanto, várias dessas aplicações, como interferometria speckle e shearografia, fornecem os valores de interesse restringidos a um intervalo de ?p a p. Assim, faz-se necessária uma operação para retomar os valores reais que produziram o resultado obtido. Esta operação é chamada de remoção do salto de fase.Por décadas tem-se estudado diversas técnicas para realizar a remoção do salto de fase. Elas podem ser divididas em duas categorias principais: métodos que seguem caminhos e métodos independente de caminhos. Métodos que seguem caminhos aplicam uma simples equação de comparação e adição de múltiplos de 2p por toda a imagem. Elas diferem nos caminhos de pixels escolhidos. Para que o resultado seja confiável, é necessário que esse caminho evite pixels de baixa qualidade ou corrompidos. As técnicas de branch-cut identificam esses pixels através da teoria de resíduos e conectando resíduos de sinais opostos, ela é capaz de traçar caminhos confiáveis para a remoção do salto de fase. Técnicas baseadas em qualidade atribuem notas relativas a diferentes critérios de qualidade para cada pixel, excluindo da análise aqueles que se encontram abaixo de um limiar arbitrário.Técnicas independentes de caminhos, como os métodos de norma mínima, assemelham-se a métodos de otimização. Estes são iterativos e procuram por um mínimo na diferença entre as derivadas da solução proposta e as derivadas da imagem original. Estes métodos são considerados bastante robustos e confiáveis. No entanto, estes tambémdemandam maior tempo de processamento para encontrar a resposta correta.Em paralelo aos desenvolvimentos na área de remoção do salto de fase, cientistas têm desenvolvido técnicas computacionais baseadas no comportamento de animais sociais. O campo de Inteligência de Enxame é inspirado por insetos como formigas, abelhas e cupins e outros animais como peixes e pássaros. Estes animais têm em comum o fato de criarem sistemas organizados embora compostos de elementos simples e a ausência de uma liderança clara. O comportamento de formigas e abelhas na busca por comida e os movimentos em grupo de peixes e pássaros são os exemplos mais claros do conceito de comportamento emergente: um comportamento que, embora não explícito na descrição de seus elementos individuais, surge com a interação entre diversos desses elementos. Este comportamento emergente pode ser explicado em termos de agentes simples e independentes, regras simples e um comportamento descentralizado.Este fenômeno tem inspirado as ciências da computação por décadas. Diversas soluções computacionais para problemas matemáticos ou operacionais têm sido propostas a partir das soluções elegantes encontradas na natureza. Exemplos dessas soluções são os algoritmos de otimização baseados no comportamento de formigas e abelhas. No entanto, pouco deste conceito tem sido aplicado na área de processamento de imagem. Quanto ao problema de remoção do salto de fase, mais especificamente, não foi encontrado nenhum trabalho que propusesse uma solução baseada em Inteligência de Enxame.Assim, o presente trabalho propõe uma solução baseada nestes conceitos. Por causa da natureza imprevisível do comportamento emergente, o desenvolvimento do algoritmo proposto foi pouco convencional. Em primeiro lugar, foi necessário o desenvolvimento de um ambiente de testes onde o enxame pudesse ser observado em tempo real durante a sua operação. Em segundo lugar, a criação do algoritmo se deu de maneira iterativa até que fosse encontrado um conjunto de regras satisfatório.Uma primeira solução foi encontrada modelando os agentes como máquinas de estados finitos. Este modelo de agente foi implementado com dinâmicas de comunicação indireta através de estigmergia e comunicação direta em casos de necessidade. Este método, apesar de ter apresentado bons resultados em termos de qualidade da remoção do salto de fase, necessitava ainda de um critério de parada independente do usuário. Na criação deste critério de parada, novas regras deram espaço para a criação de um algoritmo completamente diferente.Esta segunda solução modela o agente a partir de cinco regras simples que permitem, entre outras coisas, a criação e desativação de novos agentes. Uma vez que todos os agentes são desativados, o programa chega ao fim e retorna a imagem com o salto de fase removido. A primeira destas regras afirma que se há um ou mais pixels que podem ter seu salto removido na vizinhança do agente, um deles será escolhido aleatoriamente para a operação. O agente então se move para o pixel escolhido e ganha um ponto de energia. Se não há pixels aptos a serem trabalhados, um pixel já trabalhado na vizinhança é escolhido aleatoriamente, de acordo com a segunda regra. O agente se move para o pixel escolhido e perde um ponto de energia. A terceira regra faz com que agentes que encontram dois pixels vizinhos já trabalhados mas inconsistentes entre si, marcarem estes pixels como defeituosos e desativarem-se. As duas últimas regras fazem com que agentes com energia excedente repliquem-se e aqueles sem energia desativem-se.O comportamento esperado é que os agentes de distribuam pela imagem de maneira eficiente, aproveitando ao máximo os ciclos de processamento. Além disso, a regra de marcação de remoções duvidosas faz com que problemas de ambiguidade na remoção do salto de fase não sejam propagados por grandes regiões da imagem. Este algoritmo foi testado em diversas condições e comparado com outros métodos estabelecidos.Os primeiros resultados foram gerados aplicando-se o enxame em imagens sintéticas sem quaisquer erros. Assim, foi possível avaliar a influência de diferentes parâmetros escolhidos pelo usuário no comportamento do enxame e qualidade dos resultados. Foi possível observar o impacto dos parâmetros de energia na densidade do enxame que, por sua vez, é importante para a correção de ambiguidades propagadas.Em seguida, foram testadas imagens sintéticas com erros artificiais. Os resultados foram comparados com um algoritmo baseado em qualidade e um algoritmo de norma mínima. Foi observado que o algoritmo proposto foi extremamente capaz de contornar as dificuldades das imagens de maneira, produzindo resultados confiáveis. Para certas condições, os resultados foram ainda melhores que os obtidos pelo outro algoritmo baseado em qualidade.Foram testadas ainda imagens provenientes de aplicações metrológicas reais: projeção de franjas, interferometria speckle e shearografia. Os resultados obtidos pelo algoritmo baseado em Inteligência de Enxame foram bastante satisfatórios, comparáveis aos métodos mais robustos. Ainda, o algoritmo proposto apresentou melhoresresultados para imagens muito ruidosas quando comparado com o outro algoritmo baseado em qualidade testado. Estes resultados atestam do potencial do método proposto em obter resultados rápidos e confiáveis.Por fim, este trabalho foi concluído com um breve resumo destes resultados e a validação dos objetivos originais, afirmando assim o sucesso do método proposto. Foram listadas ainda algumas sugestões para avanços futuros como os testes com imagens e parâmetros de qualidade novos, a implementação de processamento paralelo e a criação de novas abordagens baseadas em Inteligência de Enxame para a solução deste problema e outros semelhantes.

Abstract : The proper functioning of underground oil and gas pipelines depend on the frequent and correct monitoring of stress states. Recent developments on residual stress measurement techniques have employed optical methods allied with stress relief in order to assess the underlying stress field. These optical methods require a phase unwrapping step to interpret the acquired data correctly. Phase unwrapping has posed a challenge for many optical metrology applications for decades and saw the development of many different solutions. For the past decades, the field of Swarm Intelligence, based on the behavior observed among ants, bees and other social insects, has been studied and many algorithms have been designed to perform a variety of computational tasks. Swarm Intelligence is commonly regarded as robust and fast, which are desirable features in a phase unwrapping algorithm. This work proposes a novel approach to phase unwrapping based on Swarm Intelligence, assessing its applicability, comparing it to existing methods and evaluating its potential to future developments. The proposed algorithm is thoroughly explained and the results for several different images are presented. These results show a great potential of the proposed method, performing better than some established techniques in specific situations. This potential is assessed and suggestion for future advancements are given.
APA, Harvard, Vancouver, ISO, and other styles
32

Bates, James S. "The Phase Gradient Autofocus Algorithm with Range Dependent Stripmap SAR." BYU ScholarsArchive, 2003. https://scholarsarchive.byu.edu/etd/68.

Full text
Abstract:
The Phase Gradient Autofocus (PGA) algorithm is widely used in spotlight mode SAR for motion compensation. The Maximum Likelihood PGA (ML PGA) algorithm has been shown to be a superior autofocus method. The PGA is restricted to high altitude aircraft. Since lower altitude SARs have significant range dependencies that cannot be ignored, the PGA could not be used. This thesis eliminates the high altitude restriction and extends the PGA for use with all spotlight SARs. The new algorithm is tested with three images. Each image has a unique quality. A desert image provides a low signal to clutter ratio with no distinct targets and the mountain image has areas with high signal-to-clutter and areas with low signal-to-clutter. Each image was corrupted with a low frequency and high frequency motion induced low altitude phase error. The new Phase Weighted Estimation (PWE) low altitude autofocus method converged to a lower standard deviation than the ML PGA, but required more iterations. Another limitation of the PGA is that it will only work for spotlight SAR. In this thesis, the spotlight PGA is extended to stripmap by using a conversion similar to spotlight mode. With the space frequency relationship an altered PGA is used to extend the PGA to stripmap mode SAR. The stripmap SAR, range dependant PGA allows for focusing of low altitude low cost stripmap SARs. The phase weighted estimation method is extended to range dependent stripmap. The stripmap mode estimator is most successful with high signal-to-noise images.
APA, Harvard, Vancouver, ISO, and other styles
33

Carlstedt, Tobias. "Algorithms for analysis of GSM phones’ modulation quality." Thesis, Linköping University, Department of Electrical Engineering, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-17248.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Xie, Xinjun. "Absolute distance contouring and a phase unwrapping algorithm for phase maps with discontinuities." Thesis, Liverpool John Moores University, 1997. http://researchonline.ljmu.ac.uk/5572/.

Full text
Abstract:
This thesis describes a new technique, absolute distance contouring, and a phase unwrapping algorithm for phase maps with discontinuities. Absolute distance contouring, which is based on the shadow moire method, using the rotation of a grating, is a technique which can be used for the measurement of absolute distance from the grating to the object and the determination of an object's height. By the selection of suitable rotation angles, images are captured at different positions of the grating to obtain the required data. The technique is divided into three different methods, according to the number of images required for each measurement and the rotation angles. These are known as: the absolute distance contouring method, the four-image method, and the three-image method. Using these methods, the three-dimensional shape of the object can be obtained directly and it is not necessary to determine the absolute moire fringe order nor to judge the hills and valleys of the object's surface. Some of the problems of the previous shadow moire methods can be solved and some inconvenience can be overcome by the proposed methods. The techniques have been verified by experimental work which was carried out on a specially designed system. The results show that the methods are fast and the accuracy is better than 10μm. The maximum measurable range is related to the geometry of the optical system and the rotation angles. The phase unwrapping algorithm is a technique to obtain the correct phase distribution for a phase map with discontinuities. A crossed grating, which has two sets of lines in two different directions, is projected onto the surface to be measured. The modulated grating image, which is equal to the superposition of two separate modulated images, is captured and Fourier transformed. The two images are separated in the Fourier domain. After filtering and frequency shifting, they are inverse transformed to obtain two phase maps with different precisions. Phase unwrapping at each pixel is carried out independently and the correct phase values can be obtained in the presence of discontinuities caused by a surface with steps or noise. This fast algorithm has been verified experimentally by measuring the shapes of objects with height steps, and it only requires a single image for each measurement. The methods of absolute distance contouring and the new phase unwrapping algorithm are new techniques for the measurement of three-dimensional object profile, which will find application in many areas.
APA, Harvard, Vancouver, ISO, and other styles
35

Galanis, Andreas. "Phase transitions in the complexity of counting." Diss., Georgia Institute of Technology, 2014. http://hdl.handle.net/1853/52211.

Full text
Abstract:
A recent line of works established a remarkable connection for antiferromagnetic 2-spin systems, including the Ising and hard-core models, showing that the computational complexity of approximating the partition function for graphs with maximum degree \Delta undergoes a computational transition that coincides with the statistical physics uniqueness/non-uniqueness phase transition on the infinite \Delta-regular tree. Despite this clear picture for 2-spin systems, there is little known for multi-spin systems. We present the first analog of the above inapproximability results for multi-spin systems. The main difficulty in previous inapproximability results was analyzing the behavior of the model on random \Delta-regular bipartite graphs, which served as the gadget in the reduction. To this end one needs to understand the moments of the partition function. Our key contribution is connecting: (i) induced matrix norms, (ii) maxima of the expectation of the partition function, and (iii) attractive fixed points of the associated tree recursions (belief propagation). We thus obtain a generic analysis of the Gibbs distribution of any multi-spin system on random regular bipartite graphs. We also treat in depth the k-colorings and the q-state antiferromagnetic Potts models. Based on these findings, we prove that for \Delta constant and even k<\Delta, it is NP-hard to approximate within an exponential factor the number of k-colorings on triangle-free \Delta-regular graphs. We also prove an analogous statement for the antiferromagnetic Potts model. Our hardness results for these models complement the conjectured regime where the models are believed to have efficient approximation schemes. We systematize the approach to obtain a general theorem for the computational hardness of counting in antiferromagnetic spin systems, which we ultimately use to obtain the inapproximability results for the k-colorings and q-state antiferromagnetic Potts models, as well as (the previously known results for) antiferromagnetic 2-spin systems. The criterion captures in an appropriate way the statistical physics uniqueness phase transition on the tree.
APA, Harvard, Vancouver, ISO, and other styles
36

Deng, Zhi-De. "Stochastic chaos and thermodynamic phase transitions : theory and Bayesian estimation algorithms." Thesis, Massachusetts Institute of Technology, 2007. http://hdl.handle.net/1721.1/41649.

Full text
Abstract:
Thesis (M. Eng. and S.B.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2007.
Includes bibliographical references (p. 177-200).
The chaotic behavior of dynamical systems underlies the foundations of statistical mechanics through ergodic theory. This putative connection is made more concrete in Part I of this thesis, where we show how to quantify certain chaotic properties of a system that are of relevance to statistical mechanics and kinetic theory. We consider the motion of a particle trapped in a double-well potential coupled to a noisy environment. By use of the classic Langevin and Fokker-Planck equations, we investigate Kramers' escape rate problem. We show that there is a deep analogy between kinetic rate theory and stochastic chaos, for which we propose a novel definition. In Part II, we develop techniques based on Volterra series modeling and Bayesian non-linear filtering to distinguish between dynamic noise and measurement noise. We quantify how much of the system's ergodic behavior can be attributed to intrinsic deterministic dynamical properties vis-a-vis inevitable extrinsic noise perturbations.
by Zhi-De Deng.
M.Eng.and S.B.
APA, Harvard, Vancouver, ISO, and other styles
37

Ito, Kei. "Study on high-precision numerical algorithms for multi-phase flow analyses." 京都大学 (Kyoto University), 2009. http://hdl.handle.net/2433/126506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Bates, James S. "The phase gradient autofocus algorithm with range dependent stripmap SAR /." Diss., CLICK HERE for online access, 1998. http://contentdm.lib.byu.edu/ETD/image/etd3.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

陳力 and Li Chen. "Design of linear phase paraunitary filter banks and finite length signal processing." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 1997. http://hub.hku.hk/bib/B31235608.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Sadek, Ahmad, and Ruben Pozzi. "Iterative Reconstruction Algorithm for Phase-Contrast X-Ray Imaging." Thesis, KTH, Medicinteknik och hälsosystem, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-277802.

Full text
Abstract:
Phase-contrast imaging (PCI) is a modality of medical x-ray imaging that can solve one of the main limitations with conventional attenuation-based imaging: the imaging of materials with low attenuation coefficients, such as soft tissues. A modality of PCI, Propagation-based phase-contrast imaging (PBI), was used in this project. This method does not require any optical elements than those used in the conventional imaging; it does, however, require more processing compared to other kinds of PCI. In addition to the reduced image quality, the required image reconstruction process, with PCI, also requires several manual adjustments, which in turn results in a lot of time consuming. In order to achieve that, a simple iterative image reconstruction method that combines Simultaneous Iterative Reconstruction Technique (SIRT) and propagation-based phase-contrast imaging was developed. The proposed method was compared with another commonly used phase-retrieval method, Paganin's algorithm. The obtained results showed higher resolution and reduced blur artefacts compared with Paganin's method. The developed method also appeared to be less sensitive to error in the input parameters, such as the attenuation coefficient, but also more time-consumption than the non-iterative Paganin's method, due to the higher data processing.
Faskontrastavbildning är en ny medicinsk röntgenavbildningsteknik, som har utvecklats för att ge bättre kontrast än konventionell röntgenavbildning, särskilt för objekt med låg attenuationskoefficient, såsom mjuk vävnad. I detta projekt användes s.k. propagationsbaserad faskonstrantavbildning, som är en av de enkla metoder som möjliggör faskontrastavbildningen, utan extra optiska element än det som ingår i en konventionell avbildning. Metoden kräver dock mer avancerad bildbehandling. Två av de huvudsakliga problemen som oftast uppstår vid faskontrastavbildning är minskad bildkvalité efter den väsentliga bildrekonstruktionen, samt att den är tidskrävande p.g.a. manuella justeringar som måste göras. I det här projektet implementerades en enkel metod baserad på en kombination av den iterativa algoritmen för bildrekonstruktion, Simultaneous Iterative Reconstruction Technique (SIRT), med propagationsbaserad faskonstrantavbildning. Resultaten jämfördes med en annan fasåterhämtningsmetod, som är välkänd och ofta används inom detta område, Paganinsmetod. Efter jämförelsen konstaterades att upplösningen blev högre och artefakter som suddighet reducerades. Det noterades också att den utvecklade metoden var mindre känslig för manuell inmatning av parametern för attenuationskoefficient. Metoden visade sig dock vara mer tidskrävande än Paganin-metoden.
APA, Harvard, Vancouver, ISO, and other styles
41

Jattiem, Mogamad Shaheed. "An improved algorithm for phase-based voltage dip classification." Master's thesis, University of Cape Town, 2007. http://hdl.handle.net/11427/5201.

Full text
Abstract:
Word processed copy.
Includes bibliographical references (leaves 71-72)
In this thesis, a new phase-based algorithm is developed, which overcomes the shortcomings of the Bollen algorithms. The new algorithm computes the dip type based on the difference in phase angle between the measured voltages.
APA, Harvard, Vancouver, ISO, and other styles
42

Frazao, Rodrigo José Albuquerque. "PMU based situation awareness for smart distribution grids." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT061/document.

Full text
Abstract:
Une infrastructure robuste de surveillance basée sur des mesures numériques classiques est souvent utilisée pour permettre une gestion efficace du réseau de distribution électrique, néanmoins les mesures de phaseurs synchronisés, également connu comme synchrophaseurs, sont particulièrement efficaces pour améliorer la capacité de gestion et la surveillance de ces réseaux. Le synchrophaseur est un phaseur numériquement calculé à partir des échantillons de données en utilisant une source temporelle absolue pour un horodatage extrêmement précis des mesures effectuées.De ce fait, les applications des synchrophaseurs sont très nombreuses dans les réseaux électriques, en particulier dans les réseaux de transport. Ils permettent notamment de mesurer la différence angulaire entre les noeuds, l'estimation d'état linéaire, détecter l'îlotage, surveiller la stabilité oscillatoire, et détecter et identifier les défauts. Ainsi, nous pourrions être amenés à croire que pour apporter les avantages bien connus des mesures synchronisées vers les réseaux de distribution électriques, il serait seulement nécessaire de placer les Unités de Mesure de Phaseur, également connu par l'abréviation anglophone PMU, d'une manière directe dans l'environnement de la distribution électrique. Malheureusement, cette tâchen'est pas aussi évidente qu'elle n'y paraît.Les réseaux de distribution électriques et les réseaux de transport ont des caractéristiques opérationnelles différentes, donc les PMUs dédiées aux réseaux de distribution doivent avoir des caractéristiques différentes de celles consacrées aux réseaux haute tension. Les réseaux de distribution intelligents possèdent des longueurs de ligne plus courtes en produisant une ouverture angulaire plus petite entre les noeuds adjacents. En outre, le contenu harmonique élevé et la déviation en fréquence imposent aussi des défis pour l'estimation des phaseurs. Les appareils synchronisés avancés dédiés pour la surveillance du réseau de distribution doivent surmonter ces défis afin de mener la précision des mesures au-delà des exigences actuelles.Cette problématique globale est traitée et évaluée dans la présente thèse. La précision de l'estimation de phaseur est directement liée à la performance de l'algorithme utilisé pour traiter les données. Une grande robustesse contre les effets pernicieux qui peuvent dégrader la qualité des estimations est fortement souhaitée. De ce fait, trois algorithmes adaptifs en fréquence sont présentés en visant l'amélioration du processus d'estimation des mesures de phaseurs dans les réseaux de distribution actifs. Plusieurs simulations en utilisant des signaux corrompus sont réalisées pour évaluer leurs performances dans des conditions statiques et/ou dynamiques.Prenant en compte l'estimation précise des phaseurs, quatre applications potentielles sont présentées pour augmenter la perception, la compréhension et la projection des actions dans les réseaux de distribution. Des contributions sont apportées concernant le circuit équivalent de Thévenin vu par le point de couplage commun (PCC) entre la production décentralisée et les réseaux de distribution. Des contributions sont également apportées pour les équivalents dynamiques externes et l'évaluation de la chute de tension dans les réseaux moyenne-tension radiaux, ainsi que l'évaluation de la problématique des harmoniques pour l'amélioration de la méthode classique nomée PH (puissance active harmonique) pour détecter à la fois la principale source de pollution harmonique et le vrai flux de puissance harmonique sous déviation en fréquence.Le sujet des mesures de phaseurs synchronisés dans le réseaux électrique de distribution est encore peu exploré et les questionnements quant à son applicabilité sont communs, néanmoins cette thèse vise à fournir des propositions pour contribuer à l'avènement de mesures de phaseurs dans l'environnement de la distribution électrique
Robust metering infrastructure based on classical digital measurements has been used to enable a comprehensive power distribution network management, however synchronized phasor measurements, also known as synchrophasors, are especially welcome to improve the overall framework capabilities. Synchrophasor is a phasor digitally computed from data samples using an absolute and accuracy time source as reference. In this way, since the absolute time source has sufficient accuracy to synchronize voltage and current measurements at geographically distant locations, it is possible to extract valuable informations of the real grid operating status without full knowledge of its characteristics.Due to this fact, applications of synchronized phasor measurements in wide-area management systems (WAMSs) have been achieved. Angular separation, linear state estimation, islanding detection, oscillatory stability, and disturbance location identification are some of the several applications that have been proposed. Thus, we could be lead to believe that to bring the well-known benefits of the synchronized measurements toward electric distribution grids it is only required to place in a straightforward manner conventional Phasor Measurement Units (PMUs) into the electric distribution environment. Unfortunately, this is not as simple as it seems.Electric power distribution systems and high-voltage power systems have different operational characteristics, hence PMUs or PMU-enabled IEDs dedicated to distribution systems should have different features from those devoted to the high-voltage systems. Active distribution grids with shorter line lengths produce smaller angular aperture between their adjacent busbars. In addition, high harmonic content and frequency deviation impose more challenges for estimating phasors. Generally, frequency deviation is related to high-voltage power systems, however, due to the interconnected nature of the overall power system, frequency deviation can be propagated toward the distribution grid. The integration of multiple high-rate DERs with poor control capabilities can also impose local frequency drift. Advanced synchronized devices dedicated to smart monitoring framework must overcome these challenges in order to lead the measurement accuracy beyond the levels stipulated by current standard requirements.This overall problematic is treated and evaluated in the present thesis. Phasor estimation accuracy is directly related to the algorithm's performance used for processing the incoming data. Robustness against pernicious effects that can degrade the quality of the estimates is highly desired. Due to this fact, three frequency-adaptive algorithms are presented aiming to boost the phasor estimation process in active distribution grids. Several simulations using spurious and distorted signals are performed for evaluating their performances under static and/or dynamic conditions.Taking into account accurate phasor estimates, four potential applications are presented seeking to increase situational awareness in distribution environment. Contributions are presented concerning online Thévenin's equivalent (TE) circuit seen by the Point of Common Coupling (PCC) between DERs and the grid side, dynamic external equivalents and online three-phase voltage drop assessment in primary radial distribution grids, as well as assessment of harmonic issues for improving the classical PH method (harmonic active power) to detect both the main source of harmonic pollution and true power flow direction under frequency deviation.The issue of synchronized phasor measurements in electric power distribution systems is still underexplored and suspicions about its applicability are common, however this thesis aims to provide propositions to contribute with the advent of phasor measurements in electric distribution environment
APA, Harvard, Vancouver, ISO, and other styles
43

Kalvelage, Frank. "An algorithmic approach to erosion control in three phase contactors." Thesis, University of the West of England, Bristol, 2003. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.409448.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Monceau, Pascal. "TRANSITIONS DE PHASE EN DIMENSIONS FRACTALES." Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00521313.

Full text
Abstract:
Parmi les méthodes de la théorie du groupe de renormalisation, les développements en epsilon sont basés sur des calculs dans l'espace réciproque et permettent de calculer les exposants critiques associés aux transitions magnétiques du second ordre pour des valeurs non entières de la dimension d'espace. Une interprétation physique naturelle consiste à se demander comment se comporte un système de spins en interaction dans un espace de dimension fractale. Or les structures fractales sont construites par itération d'une cellule génératrice dont les détails sont donc présents à plusieurs échelles ; la question qui se pose alors est de savoir ce qui se passe lorsque l'invariance par translation est remplacée par une invariance d'échelle géométrique. La convergence vers la limite thermodynamique se produit en même temps que le processus d'itération construit la structure. De ce fait, des simulations Monte Carlo fiables de ces transitions de phase n'ont pu être menées à bien que récemment, puisqu'elles nécessitent la simulation de très grandes tailles, lesquelles varient comme des séries géométriques avec l'étape d'itération. C'est en utilisant des algorithmes non locaux dits “d'amas” (Wolff, Swendsen-Wang), capables de réduire le ralentissement critique de manière significative, et des méthodes d'histogrammes pour traiter les données des simulationsMonte-Carlo que j'ai tout d'abord réalisé ces études. Il s'avère que le calcul précis des exposants critiques est rendu encore plus difficile par le fait que l'analyse en tailles finies du modèle d'Ising souffre de corrections d'échelle qui peuvent affecter fortement le comportement de certaines grandeurs thermodynamiques, en particulier lorsque la dimension fractale tend vers 1. J'ai montré que ces corrections d'échelle sont en partie liées à la très forte inhomogénéité du réseau sous jacent (due à l'existence de trous sur plusieurs ordres de grandeurs) et à la concomitance de la construction du fractal avec la convergence vers la limite thermodynamique. Les résultats que j'ai obtenus pour les exposants critiques, ou leurs bornes, sont toujours compatibles avec la relation d'hyperscaling dans laquelle on substitue la dimension de Hausdorff à la dimension d'espace. Le comportement critique en dimension non entière se décrit dans le cadre de l'universalité faible. Cela se manifeste par un désaccord net entre les exposants que j'ai obtenus par les méthodes Monte Carlo et les développements en epsilon. Les exposants critiques ne dépendent pas seulement de la dimension d'espace, des propriétés de symétrie du paramètre d'ordre et de la portée des interactions, mais aussi des propriétés géométriques de la structure fractale : Très récemment des calculs précis d'exposants critiques m'ont permis de montrer que des classes d'universalité différentes sont en général nécessaires pour décrire le comportement du modèle d'Ising sur des fractals de même dimension et de lacunarités différentes. Un tel résultat généralise le concept d'universalité faible proposé par Masuo Suzuki. L'hypothèse d'homogénéité qui sous-tend les lois d'échelle permettant de décrire un comportement critique se dérive par renormalisation. La procédure de renormalisation dans l'espace direct est naturelle dans les fractals, puisqu'elle suit exactement le processus inverse de construction de la structure. Avec mon étudiant Pai-Yi Hsiao, nous avons mené à bien l'étude du modèle d'Ising par une méthode de renormalisation Monte-Carlo sur une structure fractale de dimension voisine de 1, 89 ; il s'avère que l'exposant associé à l'une des directions propres peut être calculé avec une très bonne précision et est en accord avec les résultats de l'analyse en tailles finies. En revanche, la convergence est très lente dans l'autre direction, ce qui est lié aux corrections d'échelle mises en évidence lors de cette analyse. La cinétique stochastique associée à la formation des amas construits par l'algorithme de Wolff sous tend la compréhension du phénomène de ralentissement critique. J'ai montré que les distributions des tailles des amas de Wolff ont une propriété d'homogénéité qui fait intervenir l'un des exposants associé à une des directions propres du processus de renormalisation. Par ailleurs, les distributions des tensions de surface des amas vérifient une propriété analogue dans laquelle intervient un nouvel exposant critique. L'étude des fonctions d'autocorrélation m'a permis de calculer précisément les exposants dynamiques de Wolff lorsque la température critique est connue, et d'éclaircir l'évolution du ralentissement critique avec la dimension et la connectivité. Dans le cas de systèmes invariants par translation, l'ordre de la transition ferromagnétique du modèle de Potts est lié au nombre d'états de spin ; le passage du premier au second ordre est attendu pour des dimensions non entières. Par ailleurs, la présence de désordre peut, dans certaines conditions, induire une transition du second ordre à partir d'un système qui en présente une du premier. L'étude du comportement critique du modèle de Potts sur des fractals est donc particulièrement intéressante, puisque deux des paramètres qui le déterminent (dimensionnalité et désordre structurel) sont liés. Avec mon étudiant Pai-Yi Hsiao, nous avons montré que la transition associée au modèle de Potts à trois états sur une structure fractale de dimension voisine de 1, 89 est du second ordre. Les difficultés attendues lorsqu'on augmente le nombre d'états de spins se font déjà nettement sentir : Les corrections d'échelle empêchent de calculer la température critique avec une très bonne précision. Nous n'avons donc pu donner que des bornes pour certains exposants ; nous avons cependant clairement mis en évidence la différence entre les classes d'universalité de Potts à 2 et 3 états. L'étude de la percolation en dimension non entière est liée à la fois à celle du modèle de Potts et aux algorithmes d'amas. Elle est basée sur l'étude des moments de la distribution de taille des amas, ce qui nécessite la localisation de pics en fonction de la probabilité d'occupation. J'ai pu montrer que les corrections d'échelle n'affectent pratiquement pas le comportement des pics avec la taille des structures, et proposé de les interpréter en termes de "seuil effectif".
APA, Harvard, Vancouver, ISO, and other styles
45

Palani, Ananta. "Development of an optical system for dynamic evaluation of phase recovery algorithms." Thesis, University of Cambridge, 2015. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.708850.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Lo, Victor Lai-Xin. "Iterative projection algorithms and applications in x-ray crystallography." Thesis, University of Canterbury. Electrical and Computer Engineering, 2011. http://hdl.handle.net/10092/5476.

Full text
Abstract:
X-ray crystallography is a technique for determining the structure (positions of atoms in space) of molecules. It is a well developed technique, and is applied routinely to both small inorganic and large organic molecules. However, the determination of the structures of large biological molecules by x-ray crystallography can still be an experimentally and computationally expensive task. The data in an x-ray experiment are the amplitudes of the Fourier transform of the electron density in the crystalline specimen. The structure determination problem in x-ray crystallography is therefore identical to a phase retrieval problem in image reconstruction, for which iterative transform algorithms are a common solution method. This thesis is concerned with iterative projection algorithms, a generalized and more powerful version of iterative transform algorithms, and their application to macromolecular x-ray crystallography. A detailed study is made of iterative projection algorithms, including their properties, convergence, and implementations. Two applications to macromolecular crystallography are then investigated. The first concerns reconstruction of binary image and the application of iterative projection algorithms to determining molecular envelopes from x-ray solvent contrast variation data. An effective method for determining molecular envelopes is developed. The second concerns the use of symmetry constraints and the application of iterative projection algorithms to ab initio determination of macromolecular structures from crystal diffraction data. The algorithm is tested on an icosahedral virus and a protein tetramer. The results indicate that ab initio phasing is feasible for structures containing 4-fold or 5-fold non-crystallographic symmetry using these algorithms if an estimate of the molecular envelope is available.
APA, Harvard, Vancouver, ISO, and other styles
47

Landon, Jonathan Charles. "Development of an Experimental Phased-Array Feed System and Algorithms for Radio Astronomy." BYU ScholarsArchive, 2011. https://scholarsarchive.byu.edu/etd/2794.

Full text
Abstract:
Phased array feeds (PAFs) are a promising new technology for astronomical radio telescopes. While PAFs have been used in other fields, the demanding sensitivity and calibration requirements in astronomy present unique new challenges. This dissertation presents some of the first astronomical PAF results demonstrating the lowest noise temperature and highest sensitivity at the time (66 Kelvin and 3.3 m^2/K, respectively), obtained using a narrowband (425 kHz bandwidth) prototype array of 19 linear co-polarized L-band dipoles mounted at the focus of the Green Bank 20 Meter Telescope at the National Radio Astronomy Observatory (NRAO) in Green Bank, West Virginia. Results include spectral line detection of hydroxyl (OH) sources W49N and W3OH, and some of the first radio camera images made using a PAF, including an image of the Cygnus X region. A novel array Y-factor technique for measuring the isotropic noise response of the array is shown along with experimental measurements for this PAF. Statistically optimal beamformers (Maximum SNR and MVDR) are used throughout the work. Radio-frequency interference (RFI) mitigation is demonstrated experimentally using spatial cancelation with the PAF. Improved RFI mitigation is achieved in the challenging cases of low interference-to-noise ratio (INR) and moving interference by combining subspace projection (SP) beamforming with a polynomial model to track a rank 1 subspace. Limiting factors in SP are investigated including sample estimation error, subspace smearing, noise bias, and spectral scooping; each of these factors is overcome with the polynomial model and prewhitening. Numerical optimization leads to the polynomial subspace projection (PSP) method, and least-squares fitting to the series of dominant eigenvectors over a series of short term integrations (STIs) leads to the eigenvector polynomial subspace projection (EPSP) method. Expressions for the gradient, Hessian, and Jacobian are given for use in numerical optimization. Results are given for simulated and experimental data, demonstrating deeper beampattern nulls by 6 to 30dB. To increase the system bandwidth toward the hundreds of MHz bandwidth required by astronomers for a fully science-ready instrument, an FPGA digital backend is introduced using a 64-input analog-to-digital converter running at 50 Msamp/sec and the ROACH processing board developed at the University of California, Berkeley. International efforts to develop digital back ends for large antenna arrays are considered, and a road map is proposed for development of a hardware correlator/beamformer at BYU using three ROACH boards communicating over 10 gigabit Ethernet.
APA, Harvard, Vancouver, ISO, and other styles
48

Miracle, Sarah. "The effects of bias on sampling algorithms and combinatorial objects." Diss., Georgia Institute of Technology, 2015. http://hdl.handle.net/1853/53526.

Full text
Abstract:
Markov chains are algorithms that can provide critical information from exponentially large sets efficiently through random sampling. These algorithms are ubiquitous across numerous scientific and engineering disciplines, including statistical physics, biology and operations research. In this thesis we solve sampling problems at the interface of theoretical computer science with applied computer science, discrete mathematics, statistical physics, chemistry and economics. A common theme throughout each of these problems is the use of bias. The first problem we study is biased permutations which arise in the context of self-organizing lists. Here we are interested in the mixing time of a Markov chain that performs nearest neighbor transpositions in the non-uniform setting. We are given "positively biased'' probabilities $\{p_{i,j} \geq 1/2 \}$ for all $i < j$ and let $p_{j,i} = 1-p_{i,j}$. In each step, the chain chooses two adjacent elements~$k,$ and~$\ell$ and exchanges their positions with probability $p_{ \ell, k}$. We define two general classes of bias and give the first proofs that the chain is rapidly mixing for both. We also demonstrate that the chain is not always rapidly mixing by constructing an example requiring exponential time to converge to equilibrium. Next we study rectangular dissections of an $n \times n$ lattice region into rectangles of area $n$, where $n=2^k$ for an even integer $k.$ We consider a weighted version of a natural edge flipping Markov chain where, given a parameter $\lambda > 0,$ we would like to generate each rectangular dissection (or dyadic tiling)~$\sigma$ with probability proportional to $\lambda^{|\sigma|},$ where $|\sigma|$ is the total edge length. First we look at the restricted case of dyadic tilings, where each rectangle is required to have the form $R = [s2^{u},(s+1)2^{u}]\times [t2^{v},(t+1)2^{v}],$ where $s, t, u$ and~$v$ are nonnegative integers. Here we show there is a phase transition: when $\lambda < 1,$ the edge-flipping chain mixes in time $O(n^2 \log n)$, and when $\lambda > 1,$ the mixing time is $\exp(\Omega({n^2}))$. The behavior for general rectangular dissections is more subtle, and we show the chain requires exponential time when $\lambda >1$ and when $\lambda <1.$ The last two problems we study arise directly from applications in chemistry and economics. Colloids are binary mixtures of molecules with one type of molecule suspended in another. It is believed that at low density typical configurations will be well-mixed throughout, while at high density they will separate into clusters. We characterize the high and low density phases for a general family of discrete interfering colloid models by showing that they exhibit a "clustering property" at high density and not at low density. The clustering property states that there will be a region that has very high area to perimeter ratio and very high density of one type of molecule. A special case is mixtures of squares and diamonds on $\Z^2$ which correspond to the Ising model at fixed magnetization. Subsequently, we expanded techniques developed in the context of colloids to give a new rigorous underpinning to the Schelling model, which was proposed in 1971 by economist Thomas Schelling to understand the causes of racial segregation. Schelling considered residents of two types, where everyone prefers that the majority of his or her neighbors are of the same type. He showed through simulations that even mild preferences of this type can lead to segregation if residents move whenever they are not happy with their local environments. We generalize the Schelling model to include a broad class of bias functions determining individuals happiness or desire to move. We show that for any influence function in this class, the dynamics will be rapidly mixing and cities will be integrated if the racial bias is sufficiently low. However when the bias is sufficiently high, we show the dynamics take exponential time to mix and a large cluster of one type will form.
APA, Harvard, Vancouver, ISO, and other styles
49

Moreau, Gilles. "On the Solution Phase of Direct Methods for Sparse Linear Systems with Multiple Sparse Right-hand Sides." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEN084/document.

Full text
Abstract:
Cette thèse se concentre sur la résolution de systèmes linéaires creux dans le contexte d’applications massivement parallèles. Ce type de problèmes s’exprime sous la forme AX=B, où A est une matrice creuse d’ordre n x n, i.e. qui possède un nombre d’entrées nulles suffisamment élevé pour pouvoir être exploité, et B et X sont respectivement la matrice de seconds membres et la matrice de solution de taille n x nrhs. Cette résolution par des méthodes dites directes est effectuée grâce à une étape de factorisation qui réduit A en deux matrices triangulaires inférieure et supérieure L et U, suivie de deux résolutions triangulaires pour calculer la solution.Nous nous intéressons à ces résolutions avec une attention particulière apportée à la première, LY=B. Dans beaucoup d’applications, B possède un grand nombre de colonnes (nrhs >> 1) transformant la phase de résolution en un goulot d’étranglement. Elle possède souvent aussi une structure creuse, donnant l’opportunité de réduire la complexité de cette étape.Cette étude aborde sous des angles complémentaires la résolution triangulaire de systèmes linéaires avec seconds membres multiples et creux. Nous étudions dans un premier temps la complexité asymptotique de cette étape dans différents contextes (2D, 3D, facteurs compressés ou non). Nous considérons ensuite l’exploitation de cette structure et présentons de nouvelles approches s’appuyant sur une modélisation du problème par des graphes qui permettent d’atteindre efficacement le nombre minimal d’opérations. Enfin, nous donnons une interprétation concrète de son exploitation sur une application d’électromagnétisme pour la géophysique. Nous adaptons aussi des algorithmes parallèles aux spécificités de la phase de résolution.Nous concluons en combinant l'ensemble des résultats précédents et en discutant des perspectives de ce travail
We consider direct methods to solve sparse linear systems AX = B, where A is a sparse matrix of size n x n with a symmetric structure and X and B are respectively the solution and right-hand side matrices of size n x nrhs. A is usually factorized and decomposed in the form LU, where L and U are respectively a lower and an upper triangular matrix. Then, the solve phase is applied through two triangular resolutions, named respectively the forward and backward substitutions.For some applications, the very large number of right-hand sides (RHS) in B, nrhs >> 1, makes the solve phase the computational bottleneck. However, B is often sparse and its structure exhibits specific characteristics that may be efficiently exploited to reduce this cost. We propose in this thesis to study the impact of the exploitation of this structural sparsity during the solve phase going through its theoretical aspects down to its actual implications on real-life applications.First, we investigate the asymptotic complexity, in the big-O sense, of the forward substitution when exploiting the RHS sparsity in order to assess its efficiency when increasing the problem size. In particular, we study on 2D and 3D regular problems the asymptotic complexity both for traditional full-rank unstructured solvers and for the case when low-rank approximation is exploited. Next, we extend state-of-the-art algorithms on the exploitation of RHS sparsity, and also propose an original approach converging toward the optimal number of operations while preserving performance. Finally, we show the impact of the exploitation of sparsity in a real-life electromagnetism application in geophysics that requires the solution of sparse systems of linear equations with a large number of sparse right-hand sides. We also adapt the parallel algorithms that were designed for the factorization to solve-oriented algorithms.We validate and combine the previous improvements using the parallel solver MUMPS, conclude on the contributions of this thesis and give some perspectives
APA, Harvard, Vancouver, ISO, and other styles
50

Kantamneni, Sravya Mounika [Verfasser]. "Genetic Algorithm as a Computational Approach for Phase Improvement and Solving Protein Crystal Structures : Genetischer Algorithmus als rechnergestützter Ansatz zur Phasenverbesserung und Lösung von Proteinkristallstrukturen / Sravya Mounika Kantamneni." Hamburg : Staats- und Universitätsbibliothek Hamburg Carl von Ossietzky, 2020. http://d-nb.info/1221135384/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography