To see the other types of publications on this topic, follow the link: Pointer Analysi.

Dissertations / Theses on the topic 'Pointer Analysi'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Pointer Analysi.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ghiya, Rakesh. "Putting pointer analysis to work." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0002/NQ44439.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Sims, Elodie-Jane. "Pointer analysis and separation logic." Diss., Manhattan, Kan. : Kansas State University, 2007. http://hdl.handle.net/2097/506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Fu, Zhoulai. "Static analysis of numerical properties in the presence of pointers." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00918593.

Full text
Abstract:
The fast and furious pace of change in computing technology has become an article of faith for many. The reliability of computer-based systems cru- cially depends on the correctness of its computing. Can man, who created the computer, be capable of preventing machine-made misfortune? The theory of static analysis strives to achieve this ambition. The analysis of numerical properties of programs has been an essential research topic for static analysis. These kinds of properties are commonly modeled and handled by the concept of numerical abstract domains. Unfor- tunately, lifting these domains to heap-manipulating programs is not obvious. On the other hand, points-to analyses have been intensively studied to an- alyze pointer behaviors and some scale to very large programs but without inferring any numerical properties. We propose a framework based on the theory of abstract interpretation that is able to combine existing numerical domains and points-to analyses in a modular way. The static numerical anal- ysis is prototyped using the SOOT framework for pointer analyses and the PPL library for numerical domains. The implementation is able to analyze large Java program within several minutes. The second part of this thesis consists of a theoretical study of the com- bination of the points-to analysis with another pointer analysis providing information called must-alias. Two pointer variables must alias at some pro- gram control point if they hold equal reference whenever the control point is reached. We have developed an algorithm of quadruple complexity that sharpens points-to analysis using must-alias information. The algorithm is proved correct following a semantics-based formalization and the concept of bisimulation borrowed from the game theory, model checking etc.
APA, Harvard, Vancouver, ISO, and other styles
4

Sims, Elodie-Jane. "Analyses de Pointeurs et Logique de Séparation." Phd thesis, Ecole Polytechnique X, 2007. http://pastel.archives-ouvertes.fr/pastel-00003506.

Full text
Abstract:
Le cadre de cette thèse est l'analyse statique modulaire par interprétation abstraite de logiciels en vue de leur vérification automatique. Nous nous intéressons en particulier aux programmes comportant des objets alloués dynamiquement sur un tas et repérés par des pointeurs. Le but final étant de trouver des erreurs dans un programme (problèmes de déréférencements et d'alias) ou de prouver qu'un programme est correct (relativement à ces problèmes) de façon automatique. Isthiaq, Pym, O'Hearn et Reynolds ont développé récemment des logiques de fragmentation (separation logics) qui sont des logiques de Hoare avec un langage d'assertions/de prédicats permettant de démontrer qu'un programme manipulant des pointeurs sur un tas est correct. La sémantique des triplets de la logique ({P}C{P
APA, Harvard, Vancouver, ISO, and other styles
5

Raiskup, Pavel. "Vylepšení analýzy živých proměnných pomocí points-to analýzy." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2012. http://www.nusl.cz/ntk/nusl-236511.

Full text
Abstract:
Languages such as C use pointers very heavily. Implementation of operations on dynamically linked structures is, however, quite difficult. This can cause the programmer to make more mistakes than usual. One method for dealing with this situation is to use the static analysis tools. This thesis elaborates on the extension to the Code Listener architecture which is an interface for building static analysis tools. Code Listener is able to construct a call-graph or a control flow graph for a given source code and send it to the analyzing tool. One ability of the architecture is that it can conduct the live variable analysis internally. It detects places in the control flow graph where some subset of variables may be killed. The problem was that every variable for which a pointer address was assigned could not been killed, before. This decision had been made because there was no assurance that the variable could never been used through the pointer. So the goal of this work was to design and incorporate a points-to analysis which is able to exclude some references from the set of considered pointers to improve the live variable analysis.
APA, Harvard, Vancouver, ISO, and other styles
6

GARIBOLDI, BIANCA MARIA. "Norms of the lattice point discrepancy." Doctoral thesis, Università degli Studi di Milano-Bicocca, 2017. http://hdl.handle.net/10281/151708.

Full text
Abstract:
Main topic is the discrepancy, studied for different kind of sets under different hypothesis (curvature, dimensions,..). In particular we try to estimate the norms of the discrepancy respect to translations, rotations and dilations.
Main topic is the discrepancy, studied for different kind of sets under different hypothesis (curvature, dimensions,..). In particular we try to estimate the norms of the discrepancy respect to translations, rotations and dilations.
APA, Harvard, Vancouver, ISO, and other styles
7

Rombourg, Romain. "Analyse, modélisation et détection de bruits pour scanners laser terrestres." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM064.

Full text
Abstract:
Dans cette thèse, nous nous sommes concentrés sur plusieurs sujets liés à la détection du bruit dans les nuages de points générés par les scanners laser terrestres (TLS). Premièrement, les méthodes de projection pour calculer une image à partir d'un balayage TLS. Deuxièmement, la détection du bruit du ciel, c'est-à-dire le bruit produit lorsqu'une mesure d'un TLS à onde continue modulée en amplitude n'est effectuée que sur du rayonnement ambiant. Et enfin, la détection du bruit de points mixtes, c'est-à-dire les points acquis lorsque le TLS reçoit des signaux de retour de plusieurs surfaces différentes. Pour relever ces défis, nous avons d'abord analysé l'échantillonnage de l'espace du TLS et déduit des propriétés sur la densité locale de points en fonction de l'altitude, ce qui nous a permis de montrer les limites des techniques classiques de détection. Nous avons ensuite défini un cadre théorique pour analyser les méthodes de projection, fondements des méthodes de détection 2D. Ce cadre nous a permis de mettre en évidence deux propriétés fondamentales devant être satisfaites par une projection. En se basant sur ces propriétés, nous avons conçu un algorithme de projection les satisfaisant au mieux. Nous avons ensuite défini une quantification de la qualité d'une projection et comparé notre algorithme avec l'algorithme classique et montré que la méthode classique n'est pas adaptée. La projection proposée a quant à elle donné de très bons résultats. Comme le bruit du ciel n'a jamais été étudié dans de précédents travaux, nous l'avons formellement analysé pour construire des bases théoriques pour la détection du ciel. L'analyse nous a permis de montrer théoriquement et expérimentalement que la distribution de distance du bruit de ciel est indépendante des propriétés sous-jacentes du rayonnement ambiant. à partir de notre projection et des propriétés découvertes, nous avons conçu un détecteur de ciel et un détecteur de points mixtes. Les détecteurs ont été testés via une validation approfondie en conditions contrôlées. Les résultats ont montré que nos détecteurs combinés à notre projection sont capables de détecter correctement presque tous le bruit présenté avec peu de mauvaises détections pour le détecteur de ciel et une quantité raisonnable pour le détecteur de point mixte
In this thesis, we focused on several topics related to noise detection in point cloud generated by Terrestrial Laser Scanners (TLS). First, the projection methods to compute an image from a TLS scan. Second, the detection of sky noise, i.e. noise produced when a Amplitude Modulated Continuous Wave TLS measures range only from background radiation. And finally, the detection of mixed point noise, i.e. points acquired when the TLS was receiving return signals from several different surfaces. To tackle these challenges, we first analysed how the TLS samples space and deduced properties on how the local point cloud density evolves with respect to the elevation, this allowed us to show the limits of usual noise detection techniques and oriented our focus on 2D non density based detection techniques. We then defined a theoretical framework to analyse projection methods, unavoidable foundations for 2D detection methods. This framework allowed us to bring to light two fundamental properties that should be satisfied by a projection. Following these properties, we designed a projection algorithm that satisfied them as much as possible. We then defined a way to quantify projection quality and compared our proposed algorithm with the widely used classic algorithm and showed that the classic projection method is not adapted. Our proposed projection however showed very good results. Since the sky noise was never studied in previous works, we formally analysed it to build some theoretical foundations for sky detection. The analysis allowed us to show theoretically and experimentally that the range distribution of sky noise is independent of the underlying properties of the background radiation signal. From our projection and the discovered properties, we designed a sky detector and a mixed point detector. The detectors were tested via an extensive validation in controlled conditions. The results showed that our proposed detectors combined with the proposed projection are able to correctly detect almost all presented noise with few bad detection for the sky detectors and reasonable amount for the mixed point detector
APA, Harvard, Vancouver, ISO, and other styles
8

Sălcianu, Alexandru D. (Alexandru Doru) 1975. "Pointer analysis and its applications for Java programs." Thesis, Massachusetts Institute of Technology, 2001. http://hdl.handle.net/1721.1/86781.

Full text
Abstract:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2001.
Includes bibliographical references (p. 135-137).
by Alexandru D. Sălcianu.
S.M.
APA, Harvard, Vancouver, ISO, and other styles
9

Whaley, John. "Context-sensitive pointer analysis using binary decision diagrams /." May be available electronically:, 2007. http://proquest.umi.com/login?COPT=REJTPTU1MTUmSU5UPTAmVkVSPTI=&clientId=12498.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Mensi, Amira. "Analyse des pointeurs pour le langage C." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00944703.

Full text
Abstract:
Les analyses statiques ont pour but de déterminer les propriétés des programmes au moment de la compilation. Contrairement aux analyses dynamiques, le comportement exact du programme ne peut être connu. Par conséquent, on a recours à des approximations pour remédier à ce manque d'information. Malgré ces approximations, les analyses statiques permettent des optimisations et des transformations efficaces pour améliorer les performances des programmes. Parmi les premières analyses du processus d'optimisation figure l'analyse des pointeurs. Son but est d'analyser statiquement un programme en entrée et de fournir en résultat une approximation des emplacements mémoire vers lesquels pointent ses variables pointeurs. Cette analyse est considérée comme l'une des analyses de programmes les plus délicates et l'information qu'elle apporte est très précieuse pour un grand nombre d'autres analyses clientes. En effet, son résultat est nécessaire à d'autres optimisations, comme la propagation de constante, l'élimination du code inutile, le renommage des scalaires ainsi que la parallélisation automatique des programmes. L'analyse des pointeurs est très nécessaire pour l'exploitation du parallélisme présent dans les applications scientifiques écrites en C. Ceci est dû au fait que les tableaux, très présents dans ce type d'applications, sont accédés via les pointeurs. Il devient nécessaire d'analyser les dépendances entre les éléments de tableau dans le but de paralléliser les boucles. Le langage C présente beaucoup de difficultés lors de son analyse par la liberté qu'il offre aux utilisateurs pour gérer et manipuler la mémoire par le biais des pointeurs. Ces difficultés apparaissent par exemple lors de l'accès aux tableaux par pointeurs, l'allocation dynamique (via "malloc") ainsi que les structures de données récursives. L'un des objectifs principaux de cette thèse est de déterminer les emplacements mémoire vers lesquels les pointeurs pointent. Ceci se fait en assurant plusieurs dimensions comme : - la sensibilité au flot de contrôle, c'est-à-dire la mise à jour des informations d'un point programme à un autre ; - la non-sensibilité au contexte, c'est-à-dire l'utilisation de résumés au lieu de l'analyse du corps de la fonction à chaque appel ; - la modélisation des champs pointeurs des structures de données agrégées, dans laquelle chaque champ représente un emplacement mémoire distinct. D'autres aspects sont pris en compte lors de l'analyse des programmes écrits en C comme la précision des emplacements mémoire alloués au niveau du tas, l'arithmétique sur pointeurs ou encore les pointeurs vers tableaux. Notre travail permet l'amélioration des résultats des analyses clientes et en particulier il permet la parallélisation des boucles lorsqu'on accède aux éléments de tableaux via les pointeurs, la détection de code inutile ou le calcul du graphe de dépendances. Il est implémenté dans le compilateur parallélliseur PIPS (Parallélisation Interprocédurale de Programmes Scientifiques) et permet d'analyser, en particulier, les applications scientifiques de traitement du signal tout en assurant une analyse intraprocédurale précise et une analyse interprocédurale efficace via les résumés.
APA, Harvard, Vancouver, ISO, and other styles
11

Forkéus, Ted. "Distribution of Critical Points of Polynomials." Thesis, Karlstads universitet, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-82941.

Full text
Abstract:
This thesis studies the relationship between the zeroes of complexpolynomials in one variable and the critical points of those polynomials. Our methods are both analytical and statistical in nature, usingtechniques from both complex analysis and probability theory. Wepresent an alternative proof for the famous Gauss-Lucas theorem aswell as proving that the distribution for the critical points of a randompolynomial with real zeroes will converge in probability to the distribution of the zeroes. A simulation of the case with complex zeroesis also presented, which gives statistical support that this holds forrandom polynomials with complex zeroes as well. Lastly, the previous results are then applied to Sendov’s conjecture where we take aprobabilistic approach to this problem.
APA, Harvard, Vancouver, ISO, and other styles
12

Wang, Jian. "Pointer analysis in Java programs using execution path information /." View abstract or full-text, 2008. http://library.ust.hk/cgi/db/thesis.pl?CSED%202008%20WANG.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Sălcianu, Alexandru D. (Alexandru Doru) 1975. "Pointer analysis for Java programs : novel techniques and applications." Thesis, Massachusetts Institute of Technology, 2006. http://hdl.handle.net/1721.1/38311.

Full text
Abstract:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2006.
Includes bibliographical references (p. 193-200).
This dissertation presents a pointer analysis for Java programs, together with several practical analysis applications. For each program point, the analysis is able to construct a points-to graph that describes how local variables and object fields point to objects. Each points-to graph also contains escape information that identifies the objects that are reachable from outside the analysis scope. Our pointer analysis can extract correct information by analyzing only parts of a whole program. First, our analysis analyzes a method without requiring information about its calling context. Instead, our analysis computes parameterized results that are later instantiated for each relevant call site. Second, our analysis correctly handles calls to unanalyzable methods (e.g., native methods). Hence, our analysis can trade precision for speed without sacrificing correctness: if the analysis of a call to a specific callee requires too much time, the analysis can treat that callee as unanalyzable. The results of our analysis enable standard program optimizations like the stack allocation of local objects. More interestingly, this dissertation explains how to extend the analysis to detect pure methods.
(cont.) Our analysis supports a flexible definition of method purity: a method is pure if it does not mutate any object that exists in the program state before the start of the method. Therefore, our analysis allows pure methods to allocate and mutate temporary objects (e.g., iterators) and/or construct complex object structures and return them as a result.
by Alexandru D. Sălcianu.
Ph.D.
APA, Harvard, Vancouver, ISO, and other styles
14

Hedén, Isac. "Russell’s hypersurface from a geometric point of view." Licentiate thesis, Uppsala universitet, Algebra, geometri och logik, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-144688.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Gutzmann, Tobias. "Benchmarking Points-to Analysis." Doctoral thesis, Linnéuniversitetet, Institutionen för datavetenskap (DV), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-25298.

Full text
Abstract:
Points-to analysis is a static program analysis that, simply put, computes which objects created at certain points of a given program might show up at which other points of the same program. In particular, it computes possible targets of a call and possible objects referenced by a field. Such information is essential input to many client applications in optimizing compilers and software engineering tools. Comparing experimental results with respect to accuracy and performance is required in order to distinguish the promising from the less promising approaches to points-to analysis. Unfortunately, comparing the accuracy of two different points-to analysis implementations is difficult, as there are many pitfalls in the details. In particular, there are no standardized means to perform such a comparison, i.e, no benchmark suite - a set of programs with well-defined rules of how to compare different points-to analysis results - exists. Therefore, different researchers use their own means to evaluate their approaches to points-to analysis. To complicate matters, even the same researchers do not stick to the same evaluation methods, which often makes it impossible to take two research publications and reliably tell which one describes the more accurate points-to analysis. In this thesis, we define a methodology on how to benchmark points-to analysis. We create a benchmark suite, compare three different points-to analysis implementations with each other based on this methodology, and explain differences in analysis accuracy. We also argue for the need of a Gold Standard, i.e., a set of benchmark programs with exact analysis results. Such a Gold Standard is often required to compare points-to analysis results, and it also allows to assess the exact accuracy of points-to analysis results. Since such a Gold Standard cannot be computed automatically, it needs to be created semi-automatically by the research community. We propose a process for creating a Gold Standard based on under-approximating it through optimistic (dynamic) analysis and over-approximating it through conservative (static) analysis. With the help of improved static and dynamic points-to analysis and expert knowledge about benchmark programs, we present a first attempt towards a Gold Standard. We also provide a Web-based benchmarking platform, through which researchers can compare their own experimental results with those of other researchers, and can contribute towards the creation of a Gold Standard.
APA, Harvard, Vancouver, ISO, and other styles
16

Lejemble, Thibault. "Analyse multi-échelle de nuage de points." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30184.

Full text
Abstract:
Les techniques d'acquisition numérique 3D comme la photogrammétrie ou les scanners laser sont couramment utilisées dans de nombreux domaines d'applications tels que l'ingénierie inverse, l'archéologie, la robotique, ou l'urbanisme. Le principal objectif est d'obtenir des versions virtuels d'objets réels afin de les visualiser, analyser et traiter plus facilement. Ces techniques d'acquisition deviennent de plus en plus performantes et accessibles, créant un besoin important de traitement efficace des données 3D variées et massives qui en résultent. Les données sont souvent obtenues sont sous la forme de nuage de points 3D non-structurés qui échantillonnent la surface scannée. Les méthodes traditionnelles de traitement du signal ne peuvent alors s'appliquer directement par manque de paramétrisation spatiale, les points étant explicités par leur coordonnées 3D, sans ordre particulier. Dans cette thèse nous nous focalisons sur la notion d'échelle d'analyse qui est définie par la taille du voisinage utilisé pour caractériser localement la surface échantillonnée. L'analyse à différentes échelles permet de considérer des formes variées et ainsi rendre l'analyse plus pertinente et plus robuste aux imperfections des données acquises. Nous présentons d'abord des résultats théoriques et pratiques sur l'estimation de courbure adaptée à une représentation multi-échelle et multi-résolution de nuage de points. Nous les utilisons pour développer des algorithmes multi-échelle de reconnaissance de formes planaires et anisotropes comme les cylindres et les lignes caractéristiques. Enfin, nous proposons de calculer une paramétrisation 2D globale de la surface sous-jacente directement à partir de son nuage de points 3D non-structurés
3D acquisition techniques like photogrammetry and laser scanning are commonly used in numerous fields such as reverse engineering, archeology, robotics and urban planning. The main objective is to get virtual versions of real objects in order to visualize, analyze and process them easily. Acquisition techniques become more and more powerful and affordable which creates important needs to process efficiently the resulting various and massive 3D data. Data are usually obtained in the form of unstructured 3D point cloud sampling the scanned surface. Traditional signal processing methods cannot be directly applied due to the lack of spatial parametrization. Points are only represented by their 3D coordinates without any particular order. This thesis focuses on the notion of scale of analysis defined by the size of the neighborhood used to locally characterize the point-sampled surface. The analysis at different scales enables to consider various shapes which increases the analysis pertinence and the robustness to acquired data imperfections. We first present some theoretical and practical results on curvature estimation adapted to a multi-scale and multi-resolution representation of point clouds. They are used to develop multi-scale algorithms for the recognition of planar and anisotropic shapes such as cylinders and feature curves. Finally, we propose to compute a global 2D parametrization of the underlying surface directly from the 3D unstructured point cloud
APA, Harvard, Vancouver, ISO, and other styles
17

Pearce, David James. "Some directed graph algorithms and their application to pointer analysis." Thesis, Imperial College London, 2005. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.417921.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Ben, Cheikh Bassem. "Morphologie mathématique sur les graphes pour la caractérisation de l’organisation spatiale des structures histologiques dans les images haut-contenu : application au microenvironnement tumoral dans le cancer du sein." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066286/document.

Full text
Abstract:
L'un des problèmes les plus complexes dans l'analyse des images histologiques est l'évaluation de l¿organisation spatiale des structures histologiques dans le tissu. En fait, les sections histologiques peuvent contenir un très grand nombre de cellules de différents types et irrégulièrement réparties dans le tissu, ce qui rend leur contenu spatial indescriptible d'une manière simple. Les méthodes fondées sur la théorie des graphes ont été largement explorées dans cette direction, car elles sont des outils de représentation efficaces ayant la capacité expressive de décrire les caractéristiques spatiales et les relations de voisinage qui sont interprétées visuellement par le pathologiste. On peut distinguer trois familles principales de méthodes des graphes utilisées à cette fin: analyse de structure syntaxique, analyse de réseau et analyse spectrale. Cependant, un autre ensemble distinctif de méthodes basées sur la morphologie mathématique sur les graphes peut être développé et adapté pour ce problème. L'objectif principal de cette thèse est le développement d'un outil capable de fournir une évaluation quantitative des arrangements spatiaux des structures histologiques en utilisant la morphologie mathématique basée sur les graphes
One of the most challenging problems in histological image analysis is the evaluation of the spatial organizations of histological structures in the tissue. In fact, histological sections may contain a very large number of cells of different types and irregularly distributed, which makes their spatial content indescribable in a simple manner. Graph-based methods have been widely explored in this direction, as they are effective representation tools having the expressive ability to describe spatial characteristics and neighborhood relationships that are visually interpreted by the pathologist. We can distinguish three main families of graph-based methods used for this purpose: syntactic structure analysis, network analysis and spectral analysis. However, another distinctive set of methods based on mathematical morphology on graphs can be additionally developed for this issue. The main goal of this dissertation is the development of a framework able to provide quantitative evaluation of the spatial arrangements of histological structures using graph-based mathematical morphology
APA, Harvard, Vancouver, ISO, and other styles
19

Mellado, Nicolas. "Analysis of 3D objects at multiple scales : application to shape matching." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14685/document.

Full text
Abstract:
Depuis quelques années, l’évolution des techniques d’acquisition a entraîné une généralisation de l’utilisation d’objets 3D très dense, représentés par des nuages de points de plusieurs millions de sommets. Au vu de la complexité de ces données, il est souvent nécessaire de les analyser pour en extraire les structures les plus pertinentes, potentiellement définies à plusieurs échelles. Parmi les nombreuses méthodes traditionnellement utilisées pour analyser des signaux numériques, l’analyse dite scale-space est aujourd’hui un standard pour l’étude des courbes et des images. Cependant, son adaptation aux données 3D pose des problèmes d’instabilité et nécessite une information de connectivité, qui n’est pas directement définie dans les cas des nuages de points. Dans cette thèse, nous présentons une suite d’outils mathématiques pour l’analyse des objets 3D, sous le nom de Growing Least Squares (GLS). Nous proposons de représenter la géométrie décrite par un nuage de points via une primitive du second ordre ajustée par une minimisation aux moindres carrés, et cela à pour plusieurs échelles. Cette description est ensuite derivée analytiquement pour extraire de manière continue les structures les plus pertinentes à la fois en espace et en échelle. Nous montrons par plusieurs exemples et comparaisons que cette représentation et les outils associés définissent une solution efficace pour l’analyse des nuages de points à plusieurs échelles. Un défi intéressant est l’analyse d’objets 3D acquis dans le cadre de l’étude du patrimoine culturel. Dans cette thèse, nous nous étudions les données générées par l’acquisition des fragments des statues entourant par le passé le Phare d’Alexandrie, Septième Merveille du Monde. Plus précisément, nous nous intéressons au réassemblage d’objets fracturés en peu de fragments (une dizaine), mais avec de nombreuses parties manquantes ou fortement dégradées par l’action du temps. Nous proposons un formalisme pour la conception de systèmes d’assemblage virtuel semi-automatiques, permettant de combiner à la fois les connaissances des archéologues et la précision des algorithmes d’assemblage. Nous présentons deux systèmes basés sur cette conception, et nous montrons leur efficacité dans des cas concrets
Over the last decades, the evolution of acquisition techniques yields the generalization of detailed 3D objects, represented as huge point sets composed of millions of vertices. The complexity of the involved data often requires to analyze them for the extraction and characterization of pertinent structures, which are potentially defined at multiple scales. Amongthe wide variety of methods proposed to analyze digital signals, the scale-space analysis istoday a standard for the study of 2D curves and images. However, its adaptation to 3D dataleads to instabilities and requires connectivity information, which is not directly availablewhen dealing with point sets.In this thesis, we present a new multi-scale analysis framework that we call the GrowingLeast Squares (GLS). It consists of a robust local geometric descriptor that can be evaluatedon point sets at multiple scales using an efficient second-order fitting procedure. We proposeto analytically differentiate this descriptor to extract continuously the pertinent structuresin scale-space. We show that this representation and the associated toolbox define an effi-cient way to analyze 3D objects represented as point sets at multiple scales. To this end, we demonstrate its relevance in various application scenarios.A challenging application is the analysis of acquired 3D objects coming from the CulturalHeritage field. In this thesis, we study a real-world dataset composed of the fragments ofthe statues that were surrounding the legendary Alexandria Lighthouse. In particular, wefocus on the problem of fractured object reassembly, consisting of few fragments (up to aboutten), but with missing parts due to erosion or deterioration. We propose a semi-automaticformalism to combine both the archaeologist’s knowledge and the accuracy of geometricmatching algorithms during the reassembly process. We use it to design two systems, andwe show their efficiency in concrete cases
APA, Harvard, Vancouver, ISO, and other styles
20

Zhang, Kun. "Dynamic pointer tracking and its applications." Diss., Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/33936.

Full text
Abstract:
Due to the significant limitations of static analysis and the dynamic nature of pointers in weakly typed programming languages like C and C++, the points-to sets obtained at compile time are quite conservative. Most static pointer analysis methods trade the precision for the analysis speed. The methods that perform the analysis in a reasonable amount of time are often context and/or flow insensitive. Other methods that are context, flow, and field sensitive have to perform the whole program inter-procedural analysis, and do not scale with respect to the program size. A large class of problems involving optimizations such as instruction prefetching, control and data speculation, redundant load/store instructions removal, instruction scheduling, and memory disambiguation suffer due to the imprecise and conservative points-to sets computed statically. One could possibly live without optimizations, but in domains involving memory security and safety, lack of the precise points-to sets can jeopardize the security and safety. In particular, the lack of dynamic points-to sets drastically reduce the ability to reason about a program's memory access behavior, and thus illegal memory accesses can go unchecked leading to bugs as well as security holes. On the other hand, the points-to sets can be very useful for other domains such as the heap shape analysis and garbage collection. The knowledge of precise points-to sets is therefore becoming very important, but has received little attention so far beyond a few studies, which have shown that the pointers exhibit very interesting behaviors during execution. How to track such behaviors dynamically and benefit from them is the topic covered by this research. In this work, we propose a technique to compute the precise points-to sets through dynamic pointer tracking. First, the compiler performs the pointer analysis to obtain the static points-to sets. Then, the compiler analyzes the program, and inserts the necessary instructions to refine the points-to sets. At runtime, the inserted instructions automatically update the points-to sets. Dynamic pointer tracking in software can be expensive and can be a barrier to the practicality of such methods. Several optimizations including removal of redundant update, post-loop update, special pattern driven update removal, pointer initialization update removal, update propagation, invariant removal, and on demand update optimization are proposed. Our experimental results demonstrate that our mechanism is able to compute the points-to sets dynamically with tolerable overheads. Finally, the memory protection and garbage collection work are presented as the consumers of dynamic pointer tracking to illustrate its importance. In particular, it is shown how different memory properties can be easily tracked using the dynamic points-to sets opening newer possibilities.
APA, Harvard, Vancouver, ISO, and other styles
21

Gutzmann, Tobias. "Comparison of Points-to Analyses." Thesis, Växjö University, School of Mathematics and Systems Engineering, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:vxu:diva-2401.

Full text
Abstract:

Points-to analysis is a static program analysis which computes possible reference relations between different parts of a program. It serves as input to many high-level analyses. Points-to analyses differ, among others, in flow- and context-sensitivity, program representation, and object abstraction. Most program representations used for points-to analysis are sparse representations which abstract from, e.g., primitive data types and intra-procedural control-flow. Thus, a certain degree of information is sacrificed for compact program representation, which results in scalable performance. In this thesis, we present a framework which allows building different versions of Points-to SSA (P2SSA), a sparse, Memory SSA based program representation. Distinct instantiations of P2SSA contain different levels of abstraction from a program's full representation. We present another framework which allows running Points-to analyses on these program representations. We use these two frameworks to instantiate different versions of P2SSA and compare them in terms of analysis precision and execution time.

APA, Harvard, Vancouver, ISO, and other styles
22

Bonthonneau, Yannick. "Résonances du laplacien sur les variétés à pointes." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112141/document.

Full text
Abstract:
Cette thèse à pour objet l’étude des résonances du laplacien sur les variétés à pointes. Ce sont des variétés dont les bouts sont des pointes hyperboliques réelles. Ces objets ont été introduits par Selberg pour les surfaces à pointes de courbure constante dans les années 50. Leur définition a ensuite été étendue en courbure variable par Lax et Phillips. Les résonances sont les poles d’une famille méromorphe de fonctions propres généralisées du laplacien. Elles sont associées au spectre continu du laplacien. Pour analyser ce spectre continu, plusieurs directions de recherche sont explorées ici. D’une part, on obtient des résultats sur la localisation de ces résonances. En particulier, si la courbure est négative, on montre que pour un ensemble générique de métriques, les résonances se séparent en deux ensembles. Le premier est contenu dans une bande près du spectre continu. L’autre partie est composé de résonances qui s’éloignent du spectre. Ceci laisse une zone de taille log sans résonance.D’autre part, on étudie les mesures microlocales associées à certaines suites de paramètre spectraux. En particulier, on montre que pour des suites de paramètres spectraux qui s’approche du spectre, mais pas trop vite, la mesure microlocale associée est nécessairement la mesure de Liouville. Cette propriété est valable quand la courbure de la variété est négative
In this thesis, we study the resonances of the Laplace operator on cusp manifolds. They are manifolds whose ends are real hyperbolic cusps. The resonances were introduced by Selberg in the 50's for the constant curvature cusp surfaces. Their definition was later extended to the case of variable curvature by Lax and Phillips. The resonances are the poles of a meromorphic family of generalized eigenfunctions of the Laplace operator. They are associated to the continuous spectrum of the Laplace operator. To analyze this continuous spectrum, different directions of research are investigated.On the one hand, we obtain results on the localization of resonances. In particular, if the curvature is negative, for a generic set of metrics, they split into two sets. The first one is included in a band near the spectrum. The other is composed of resonances that are far from the spectrum. This leaves a log zone without resonances. On the other hand, we study the microlocal measures associated to certain sequences of spectral parameters. In particular we show that for some sequences of parameters that converge to the spectrum, but not too fast, the associated microlocal measure has to be the Liouville measure. This property holds when the curvature is negative
APA, Harvard, Vancouver, ISO, and other styles
23

Späth, Johannes [Verfasser]. "Synchronized pushdown systems for pointer and data-flow analysis / Johannes Späth." Paderborn : Universitätsbibliothek, 2019. http://d-nb.info/1182422713/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Gutzmann, Tobias. "Towards a Gold Standard for Points-to Analysis." Licentiate thesis, Växjö University, School of Mathematics and Systems Engineering, 2010. http://urn.kb.se/resolve?urn=urn:nbn:se:vxu:diva-7381.

Full text
Abstract:

Points-to analysis is a static program analysis that computes reference informationfor a given input program. It serves as input to many client applicationsin optimizing compilers and software engineering tools. Unfortunately, the Gold Standard – i.e., the exact reference information for a given program– is impossible to compute automatically for all but trivial cases, and thus, little can been said about the accuracy of points-to analysis.

This thesis aims at paving the way towards a Gold Standard for points-to analysis. For this, we discuss theoretical implications and practical challenges that occur when comparing results obtained by different points-to analyses. We also show ways to improve points-to analysis by different means, e.g., combining different analysis implementations, and a novel approach to path sensitivity.

We support our theories with a number of experiments.

APA, Harvard, Vancouver, ISO, and other styles
25

Middleton, Neil 1977. "Fading points." Thesis, McGill University, 2004. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=81476.

Full text
Abstract:
Fading Points is a piece of music for large wind ensemble. The work is concerned with time perception and is designed to convey to the listener a long temporal progression from slow music to fast music. To this end, the work is written using musical gestures specifically designed for their portrayal of musical time. The work consists of four sections, each of which is described in detail in the analytical part of the thesis. The analysis also describes the rhythmic language, which is created around short rhythmic cells. These cells are based on ratios and are used in all levels of the piece from the surface rhythm to the large formal divisions. The harmonic language is also described. The vertical harmony is derived from a dense chord presented at the beginning of the piece. The horizontal pitch material is created from small pitch cells, also taken from the opening chord. These cells are used in isolation but are also combined to create modes, which are the focus of the latter parts of the piece.
APA, Harvard, Vancouver, ISO, and other styles
26

Haouas, Nabiha. "Wind energy analysis and change point analysis." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22554.

Full text
Abstract:
L’énergie éolienne, l’une des énergies renouvelables les plus compétitives, est considérée comme une solution qui remédie aux inconvénients de l’énergie fossile. Pour une meilleure gestion et exploitation de cette énergie, des prévisions de sa production s’avèrent nécessaires. Les méthodes de prévisions utilisées dans la littérature permettent uniquement une prévision de la moyenne annuelle de cette production. Certains travaux récents proposent l’utilisation du Théorème Central Limite (TCL), sous des hypothèses non classiques, pour l’estimation de la production annuelle moyenne de l’énergie éolienne ainsi que sa variance pour une seule turbine. Nous proposons dans cette thèse une extension de ces travaux à un parc éolien par relaxation de l’hypothèse de stationnarité la vitesse du vent et la production d’énergie, en supposant que ces dernières sont saisonnières. Sous cette hypothèse la qualité de la prévision annuelle s’améliore considérablement. Nous proposons aussi de prévoir la production d’énergie éolienne au cours des quatre saisons de l’année. L’utilisation du modèle fractal, nous permet de trouver une division ”naturelle” de la série de la vitesse du vent afin d’affiner l’estimation de la production éolienne en détectant les points de ruptures. Dans les deux derniers chapitres, nous donnons des outils statistiques de la détection des points de ruptures et d’estimation des modèles fractals
The wind energy, one of the most competitive renewable energies, is considered as a solution which remedies the inconveniences of the fossil energy. For a better management and an exploitation of this energy, forecasts of its production turn out to be necessary. The methods of forecasts used in the literature allow only a forecast of the annual mean of this production. Certain recent works propose the use of the Central Limit Theorem (CLT), under not classic hypotheses, for the estimation of the mean annual production of the wind energy as well as its variance for a single turbine. We propose in this thesis, an extension of these works in a wind farm by relaxation of the hypothesis of stationarity the wind speed and the power production, supposing that the latter are seasonal. Under this hypothesis the quality of the annual forecast improves considerably. We also suggest planning the wind power production during four seasons of the year. The use of the fractal model, allows us to find a "natural" division of the series of the wind speed to refine the estimation of the wind production by detecting abrupt change points. Statistical tools of the change points detection and the estimation of fractal models are presented in the last two chapters
APA, Harvard, Vancouver, ISO, and other styles
27

Zhou, Huajun. "Multivariate compound point processes with drifts." Online access for everyone, 2006. http://www.dissertations.wsu.edu/Dissertations/Summer2006/h%5Fzhou%5F051606.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Misner, Scottie, and Carol Curtis. "HACCP - Hazard Analysis Critical Control Points." College of Agriculture and Life Sciences, University of Arizona (Tucson, AZ), 2008. http://hdl.handle.net/10150/146434.

Full text
Abstract:
1p.
HACCP, pronounced has-up, is a food safety self-inspection system that combines up-to-date technical information with step-by-step procedures to evaluate and monitor the flow of food throughout a food establishment from receiving to service. This publication introduces this system to readers and outlines 6 simple HACCP principles to reduce the occurrence of food-borne illness at home.
APA, Harvard, Vancouver, ISO, and other styles
29

MORGERA, ANDREA. "Dominant points detection for shape analysis." Doctoral thesis, Università degli Studi di Cagliari, 2012. http://hdl.handle.net/11584/266073.

Full text
Abstract:
The growing interest in recent years towards the multimedia and the large amount of information exchanged across the network involves the various fields of research towards the study of methods for automatic identification. One of the main objectives is to associate the information content of images, using techniques for identifying composing objects. Among image descriptors, contours reveal are very important because most of the information can be extracted from them and the contour analysis offers a lower computational complexity also. The contour analysis can be restricted to the study of some salient points with high curvature from which it is possible to reconstruct the original contour. The thesis is focused on the polygonal approximation of closed digital curves. After an overview of the most common shape descriptors, distinguished between simple descriptors and external methods, that focus on the analysis of boundary points of objects, and internal methods, which use the pixels inside the object also, a description of the major methods regarding the extraction of dominant points studied so far and the metrics typically used to evaluate the goodness of the polygonal approximation found is given. Three novel approaches to the problem are then discussed in detail: a fast iterative method (DPIL), more suitable for realtime processing, and two metaheuristics methods (GAPA, ACOPA) based on genetic algorithms and Ant Colony Optimization (ACO), more com- plex from the point of view of the calculation, but more precise. Such techniques are then compared with the other main methods cited in literature, in order to assess the performance in terms of computational complexity and polygonal approximation error, and measured between them, in order to evaluate the robustness with respect to affine transformations and conditions of noise. Two new techniques of shape matching, i.e. identification of objects belonging to the same class in a database of images, are then described. The first one is based on the shape alignment and the second is based on a correspondence by ACO, which puts in evidence the excellent results, both in terms of computational time and recognition accuracy, obtained through the use of dominant points. In the first matching algorithm the results are compared with a selection of dominant points generated by a human operator while in the second the dominant points are used instead of a constant sampling of the outline typically used for this kind of approach.
APA, Harvard, Vancouver, ISO, and other styles
30

Serna, Morales Andrés Felipe. "Analyse sémantique de nuages de points 3D dans le milieu urbain : sol, façades, objets urbains et accessibilité." Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0052/document.

Full text
Abstract:
Les plus grandes villes au monde disposent de plans 2D très détaillés des rues et des espaces publics. Ces plans contiennent des informations relatives aux routes, trottoirs, façades et objets urbains tels que, entre autres, les lampadaires, les panneaux de signalisation, les poteaux, et les arbres.De nos jours, certaines autorités locales, agences nationales de cartographie et sociétés privées commencent à adjoindre à leurs cartes de villes des informations en 3D, des choix de navigation et d'accessibilité.En comparaison des premiers systèmes de scanning en 3D d'il y a 30 ans, les scanners laser actuels sont moins chers, plus rapides et fournissent des nuages de points 3D plus précis et plus denses.L'analyse de ces données est difficile et laborieuse, et les méthodes semi-automatiques actuelles risquent de ne pas être suffisamment précises ni robustes. C'est en ce sens que des méthodes automatiques pour l'analyse urbaine sémantique en 3D sont nécessaires.Cette thèse constitue une contribution au domaine de l'analyse sémantique de nuages de points en 3D dans le cadre d'un environnement urbain.Nos méthodes sont basées sur les images d'élévation et elles illustrent l'efficacité de la morphologie mathématique pour développer une chaîne complète de traitement en 3D, incluant 6 étapes principales:i)~filtrage et pré-traitement;ii)~segmentation du sol et analyse d'accessibilité;iii)~segmentation des façades;iv)~détection d'objets;v)~segmentation d'objets;vi)~classification d'objets.De plus, nous avons travaillé sur l'intégration de nos résultats dans une chaîne de production à grande échelle.Ainsi, ceux-ci ont été incorporés en tant que ``shapefiles'' aux Systèmes d'Information Géographique et exportés en tant que nuages de points 3D pour la visualisation et la modélisation.Nos méthodes ont été testées d'un point de vue qualitatif et quantitatif sur plusieurs bases de données issues de l'état de l'art et du projet TerraMobilita.Nos résultats ont montré que nos méthodes s'avèrent précises, rapides et surpassent les travaux décrits par la littérature sur ces mêmes bases.Dans la conclusion, nous abordons également les perspectives de développement futur
Most important cities in the world have very detailed 2D urban plans of streets and public spaces.These plans contain information about roads, sidewalks, facades and urban objects such as lampposts, traffic signs, bollards, trees, among others.Nowadays, several local authorities, national mapping agencies and private companies have began to consider justifiable including 3D information, navigation options and accessibility issues into urban maps.Compared to the first 3D scanning systems 30 years ago, current laser scanners are cheaper, faster and provide more accurate and denser 3D point clouds.Urban analysis from these data is difficult and tedious, and existing semi-automatic methods may not be sufficiently precise nor robust.In that sense, automatic methods for 3D urban semantic analysis are required.This thesis contributes to the field of semantic analysis of 3D point clouds from urban environments.Our methods are based on elevation images and illustrate how mathematical morphology can be exploited to develop a complete 3D processing chain including six main steps:i)~filtering and preprocessing;ii)~ground segmentation and accessibility analysis;iii)~facade segmentation,iv)~object detection;v)~object segmentation;and, vi)~object classification.Additionally, we have worked on the integration of our results into a large-scale production chain. In that sense, our results have been exported as 3D point clouds for visualization and modeling purposes and integrated as shapefiles into Geographical Information Systems (GIS).Our methods have been qualitative and quantitative tested in several databases from the state of the art and from TerraMobilita project.Our results show that our methods are accurate, fast and outperform other works reported in the literature on the same databases.Conclusions and perspectives for future work are discussed as well
APA, Harvard, Vancouver, ISO, and other styles
31

Soon, Shih Chung. "On detection of extreme data points in cluster analysis." Connect to resource, 1987. http://rave.ohiolink.edu/etdc/view.cgi?acc%5Fnum=osu1262886219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Sims, Elodie-Jane. "Analyse statique de pointeurs et logique de séparation." Palaiseau, Ecole polytechnique, 2007. http://www.theses.fr/2007EPXX0038.

Full text
Abstract:
Le cadre de cette thèse est l'analyse statique modulaire par interprétation abstraite de logiciels en vue de leur vérification automatique. Nous nous intéressons en particulier aux programmes comportant des objets alloués dynamiquement sur un tas et repérés par des pointeurs. Le but final étant de trouver des erreurs dans un programme (problèmes de déréférencements et d'alias) ou de prouver qu'un programme est correct (relativement à ces problèmes) de façon automatique. Isthiaq, Pym, O'Hearn et Reynolds ont développé récemment des logiques de fragmentation (separation logics) qui sont des logiques de Hoare avec un langage d'assertions/de prédicats permettant de démontrer qu'un programme manipulant des pointeurs sur un tas est correct. La sémantique des triplets de la logique ({P}C{P′}) est définie par des transformateurs de prédicats de style plus faible pré-condition. Nous avons exprimé et prouvé la correction de ces plus faibles pré-conditions (wlp) et plus fortes post-conditions (sp), en particulier dans le cas de la commande while. L'avantage par rapport à ce qui est fait dans la communauté est que les wlp et sp sont définis pour toute formule alors que certaines des règles existantes avaient des restrictions syntaxiques. Nous avons rajouté des points fixes à la logique ainsi qu'une substitution retardée permettant d'exprimer des formules récursives. Nous avons exprimé les wlp et sp dans cette logique avec points fixes et prouvé leur correction. La substitution retardée a une utilité directe pour l'expression de formules récursives. Par exemple, nclist(x) = μXv. (x = nil) ∨ ∃x1, x2. (isval(x1) ∧ (x 7→ x1, x2 ∗ Xv[x2/x])) décrit l'ensemble des mémoires où x pointe vers une liste d'entiers. Le but ensuite était d'utiliser cette logique de fragmentation avec points fixes comme langage d'interface pour des analyses de pointeurs. Il s'agit de formuler une traduction des domaines de ces analyses en formules de la logique (et inversement) et d'en prouver la correction. On peut également parfois utiliser ces traductions pour prouver la correction de ces analyses. Nous avions déjà illustré cette approche pour une analyse très simple de partitionnement des pointeurs. Nous avons traduit les formules de la logique dans un nouveau langage abstrait permettant de décrire le type des valeurs associées aux variables dans la mémoire (nil, entier, bool, pointeur vers une paire de tel type, etc. ) ainsi que les relations d'aliasing et non-aliasing entre variables et entre points de la mémoire. Le principal apport est la définition de ce langage et de sa sa sémantique dans le domaine concret qui est celui utilisé pour la sémantique des formules. En particulier, les variables auxiliaires dont la sémantique est habituellement une question d'implémentation font ici explicitement part du langage et de sa sémantique. Ce langage est un produit cartésien de plusieurs sous domaines et peut être paramétré par les domaines numériques existants. Nous avons créé un sous-domaine qui est un tableau permettant de compenser le manque de précision dû à l'utilisation de graphes d'ensembles au lieu d'ensembles de graphes. Nous avons exprimé et prouvé les traductions des formules dans ce langage abstrait.
APA, Harvard, Vancouver, ISO, and other styles
33

Å, imÅ ek Alp. "Analysis of critical points for nonconvex optimization." Thesis, Massachusetts Institute of Technology, 2005. http://hdl.handle.net/1721.1/32108.

Full text
Abstract:
Thesis (M. Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2005.
This electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.
Includes bibliographical references (leaves 121-125).
In this thesis, we establish sufficient conditions under which an optimization problem has a unique local optimum. Motivated by the practical need for establishing the uniqueness of the optimum in an optimization problem in fields such as global optimization, equilibrium analysis, and efficient algorithm design, we provide sufficient conditions that are not merely theoretical characterizations of uniqueness, but rather, given an optimization problem, can be checked algebraically. In our analysis we use results from two major mathematical disciplines. Using the mountain pass theory of variational analysis, we are able to establish the uniqueness of the local optimum for problems in which every stationary point of the objective function is a strict local minimum and the function satisfies certain boundary conditions on the constraint region. Using the index theory of differential topology, we are able to establish the uniqueness of the local optimum for problems in which every generalized stationary point (Karush-Kuhn-Tucker point) of the objective function is a strict local minimum and the function satisfies some non-degeneracy assumptions. The uniqueness results we establish using the mountain pass theory and the topological index theory are comparable but not identical.
(cont.) Our results from the mountain pass analysis require the function to satisfy less strict structural assumptions such as weaker differentiability requirements, but more strict boundary conditions. In contrast, our results from the index theory require strong differentiability and non-degeneracy assumptions on the function, but treat the boundary and interior stationary points uniformly to assert the uniqueness of the optimum under weaker boundary conditions.
by Alp Simsek.
M.Eng.
APA, Harvard, Vancouver, ISO, and other styles
34

Jabbour, Chirelle. "Développement de l'ablation laser en champ proche couplée à l'ICPMS pour l'analyse sub-micrométrique d'échantillons solides." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066282/document.

Full text
Abstract:
Une technique d'ablation laser dite en champ proche a été développée pour l'analyse chimique d'échantillons solides à l'échelle sub-micrométrique. Cette technique combine un laser Nd:YAG nanoseconde, un microscope à force atomique AFM et un spectromètre de masse à plasma à couplage inductif (ICPMS). Afin d'améliorer la résolution spatiale de la technique d'ablation laser classique, l'effet de champ proche, consistant à amplifier l'énergie du laser très localement a été mis à profit. Cet effet est obtenu par illumination, par un faisceau laser, de la pointe conductrice de l'AFM placée à quelques nanomètres (5-30 nm) de la surface d'un échantillon. En appliquant cette technique d'ablation sur des échantillons conducteurs, l'or et le tantale, et un échantillon semi-conducteur, le silicium, une résolution latérale de 100 nm et des profondeurs de quelques nanomètres ont été obtenues. Deux codes numériques développés au laboratoire ont permis l'étude de deux phénomènes intervenant aux alentours de la pointe : l'amplification du champ électrique du laser par effet de pointe, et le chauffage induit par le laser à la surface de l'échantillon. L'influence des principaux paramètres opératoires sur ces deux phénomènes d'amplification et de chauffage a été étudiée. Une étude expérimentale multiparamétrique a été réalisée afin d'étudier l'influence des différents paramètres (fluence du laser, longueur d'onde du laser, nombre de tirs laser, distance pointe-échantillon, nature et dimensions de la pointe, nature de l'échantillon) sur l'efficacité d'ablation, sur les dimensions des cratères et sur la quantité de matière ablatée
A near field laser ablation method was developed for chemical analysis of solid samples at sub-micrometric scale. This analytical technique combines a nanosecond laser Nd:YAG, an Atomic Force Microscope (AFM), and an inductively coupled plasma mass spectrometer (ICPMS). In order to improve the spatial resolution of the laser ablation process, the near-field enhancement effect was applied by illuminating, by the laser beam, the apex of the AFM conductive sharp tip maintained at a few nanometers (5 to 30 nm) above the sample surface. The interaction between the illuminated tip and the sample surface enhances locally the incident laser energy and leads to the ablation process. By applying this technique to conducting gold and tantalum samples, and semiconducting silicon sample, a lateral resolution of 100 nm and depths of a few nanometers were demonstrated. Two home-made numerical codes have enabled the study of two phenomena occurring around the tip: the enhancement of the laser electrical field by tip effect, and the induced laser heating at the sample surface. The influence of the main operating parameters on these two phenomena, amplification and heating, was studied. An experimental multi-parametric study was carried out in order to understand the effect of different experimental parameters (laser fluence, laser wavelength, number of laser pulses, tip-to-sample distance, sample and tip nature) on the near-field laser ablation efficiency, crater dimensions and amount of ablated material
APA, Harvard, Vancouver, ISO, and other styles
35

Edvinsson, Marcus. "Towards a Framework for Static Analysis Based on Points-to Information." Licentiate thesis, Växjö University, School of Mathematics and Systems Engineering, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:vxu:diva-1687.

Full text
Abstract:

Static analysis on source code or binary code retrieves information about a software program. In object-oriented languages, static points-to analysis retrieves information about objects and how they refer to each other. The result of the points-to analysis is traditionally used to perform optimizations in compilers, such as static resolution of polymorphic calls, and dead-code elimination. More advanced optimizations have been suggested specifically for Java, such as synchronization removal and stack-allocation of objects. Recently, software engineering tools using points-to analysis have appeared aiming to help the developer to understand and to debug software. Altogether, there is a great variety of tools that use or could use points-to analysis, both from academia and from industry.

We aim to construct a framework that supports the development of new and the improvement of existing clients to points-to analysis result. We present two client analyses and investigate the similarities and differences they have. The client analyses are the escape analysis and the side-effects analysis. The similarities refer to data structures and basic algorithms that both depend on. The differences are found in the way the two analyses use the data structures and the basic algorithms. In order to reuse these in a framework, a specification language is needed to reflect the differences. The client analyses are implemented, with shared data-structures and basic algorithms, but do not use a separate specification language.

The framework is evaluated against three goal criteria, development speed, analysis precision, and analysis speed. The development speed is ranked as most important, and the two latter are considered equally important. Thereafter we present related work and discuss it with respect to the goal criteria.

The evaluation of the framework is done in two separate experiments. The first experiment evaluates development speed and shows that the framework enables higher development speed compared to not using the framework. The second experiment evaluates the precision and the speed of the analyses and it shows that the different precisions in the points-to analysis are reflected in the precisions of the client analyses. It also shows that there is a trade-off between analysis precision and analysis speed to consider when choosing analysis precision.

Finally, we discuss four alternative ways to continue the research towards a doctoral thesis.

APA, Harvard, Vancouver, ISO, and other styles
36

Lindahl, Karl-Olof. "On the linearization of non-Archimedean holomorphic functions near an indifferent fixed point." Doctoral thesis, Växjö : Växjö University Press, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:vxu:diva-1713.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Lartey, Ebenezer. "Change-point analysis using score functions." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0009/NQ40269.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Soale, Abdul-Nasah. "Spatio-Temporal Analysis of Point Patterns." Digital Commons @ East Tennessee State University, 2016. https://dc.etsu.edu/etd/3120.

Full text
Abstract:
In this thesis, the basic tools of spatial statistics and time series analysis are applied to the case study of the earthquakes in a certain geographical region and time frame. Then some of the existing methods for joint analysis of time and space are described and applied. Finally, additional research questions about the spatial-temporal distribution of the earthquakes are posed and explored using statistical plots and models. The focus in the last section is in the relationship between number of events per year and maximum magnitude and its effect on how clustered the spatial distribution is and the relationship between distances in time and space in between consecutive events as well as the distribution of the distances.
APA, Harvard, Vancouver, ISO, and other styles
39

Menin, Aline. "eSTIMe : un environnement de visualisation pour l'analyse multi-points de vue des mobilités quotidiennes." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALS010.

Full text
Abstract:
Le domaine de recherche de la mobilité urbaine vise l'observation et la conception des déplacements humains dans un environnement urbain, dont les informations aident à la prise de décision et à la résolution de problèmes dans le cadre des politiques publiques. De nombreux experts - pas nécessairement spécialistes des transports - doivent traiter des données urbaines plus ou moins standardisées pour en extraire des connaissances synthétiques et facilement exploitables. De ce fait, les agences de transport public mènent couramment des enquêtes de déplacements pour recueillir des informations sur les déplacements quotidiens de la population sur un territoire donné, dont les jeux de données résultant sont larges et complexes en requierant une analyse qui croise les dimensions spatiales, temporelles, thématiques et socio-économiques pour permettre de découvrir les schémas spatio-temporels de la mobilité quotidienne. Dans ce contexte, la visualisation d'informations est une approche appropriée pour soutenir l'analyse des données de mobilité urbaine, puisque les analystes n'ont pas à apprendre des méthodes sophistiquées pour interpréter les visualisations de données qui viennent renforcer leur cognition et permettent la découverte d'aperçus non structurés dans les données.Ainsi, nous proposons un cadre de visualisation pour aider à l'analyse de la mobilité urbaine à travers des indicateurs décrivant des objets d'intérêt complémentaires au sein des données qui permettent d'aborder trois catégories de questions sous-jacentes au phénomène de la mobilité urbaine. Une première question est de savoir comment les habitants d'un territoire se déplacent au quotidien et quels processus d'échanges entre les lieux cela génère, ce qui l'on peut analyser par l'exploration des quantités, des modalités, de la direction et de la variation des flux et des déplacements en fonction des différents aspects socio-économiques des individus et des types d'espaces. Une deuxième question concerne la variation temporelle de la présence de la population sur un territoire, qui permet de comprendre l'utilisation de différents ``sours-espaces'' en tenant compte des caractéristiques socio-économiques des personnes qui s'y rendent et des activités qu'elles y exercent. La troisième question cherche à expliquer le besoin de déplacement des individus à travers l'ordre temporel des déplacements et des activités des individus (aussi nommés ``trajectoires quotidiennes'') dans le contexte spatial du territoire.Nous proposons un cadre visuel à l'aide de la dérivation et l'exploration visuelle d'indicateurs décrivant le territoire, les flux et les déplacements, et les trajectoires quotidiennes, sur de multiples granularités spatio-temporelles et attributs thématiques. Notre interface de visualisation permet de disperser les représentations visuelles sur de multiples tableaux de bords analytiques, permettant aux utilisateurs de personnaliser l'agencement spatial des visualisations et les indicateurs de manière significative en fonction de l'analyse en cours. De plus, nous proposons une interaction basée sur le mouvement, qui repose sur l'inclinaison d'une tablette et qui permet d'explorer la variation temporelle des indicateurs en tirant parti d'une entrée tactile et tangible. La conception de notre approche de visualisation a suivi un processus d'évaluation interactif qui comprend des évaluations successives auprès des utilisateurs visant à affiner un prototype afin d'atteindre la performance et la satisfaction de l'utilisateur
The research field of urban mobility aims at the observation and design of human trips within an urban environment, which information supports decision-making and problem solving within public policies. In this context, there are many experts -- not necessarily transportation specialists -- that need to handle more or less standardized urban data to extract synthetic and easily exploitable knowledge. Hence, public transportation agencies commonly conduct trip-based surveys to collect information about day-to-day travel of the population within a particular territory (i.e. where and when we travel), resulting in large and complex datasets which analysis requires crossing spatial, temporal, thematic and socioeconomic dimensions to enable discoveries of daily urban mobility patterns. This way, information visualization is a suitable approach to support the analysis of urban mobility data, since analysts do not have to learn sophisticated methods to interpret the data visualizations that come to reinforce their cognition and enable the discovery of unstructured insights within the data.Thereby, we propose a visualization framework to assist the analysis of urban mobility through indicators describing complementary objects of interest within the data that allow to address three categories of questions underlying the urban mobility phenomenon. A first question seeks to understand the daily traveling routine of a population and the resulting processes of exchange between places, which can be studied through the exploration of amounts, modalities, direction, and variation of travel flows and trips according to different socioeconomic aspects of individuals and land types. A second questioning concerns the temporal variation of population presence throughout a territory, which allows to understand the use of distinct locations by taking into account the socioeconomic characteristics of the people visiting it and the activities they carry out there. The third question seeks to explain the individuals' need of traveling by studying the temporal ordering of trips and activities of individuals (i.e. daily trajectories) within the spatial context of the territory.Our framework supports the derivation and visual exploration of indicators describing the territory, travel flows and trips, and daily trajectories, over multiple spatio-temporal resolutions and thematic attributes. Our visualization interface allows to disperse visual representations over multiple analytical displays, enabling users to customize the spatial arrangement of visualizations and indicators in meaningful ways according to the ongoing analysis. Furthermore, we propose a movement-based interaction based on the tilting of a tablet that allows to explore the temporal variation of indicators leveraging tactile and tangible input. The conception of our visualization approach followed an interactive evaluation process that consists of successive user-based evaluations aiming to refine a prototype in order to achieve user performance and satisfaction
APA, Harvard, Vancouver, ISO, and other styles
40

Lawson, Andrew B. "The statistical analysis of point events associated with a fixed point." Thesis, University of St Andrews, 1991. http://hdl.handle.net/10023/7294.

Full text
Abstract:
This work concerns the analysis of point events which are distributed on a planar region and are thought to be related to a fixed point. Data examples are considered from Epidemiology, where morbidity events are thought to be related to a pollution source, and Ecology and Geology where events associated with a central point are to be modelled. We have developed a variety of Heterogeneous Poisson Process (HEPP) models for the above examples. In particular, I have developed interaction and 8-dependence models for angular-linear correlation, with their ML estimation and associated score/W aId tests. In the Epidemiological case we have developed case-control models and tests. The possibility of second-order effects being important has also led to the development of Bayesian Spatial Prior (BSP) models. In addition, we have developed a new deviance residual for HEPP models and explored the use of GLIM for modelling purposes. A variety of results were found in data analysis. In some cases HEPP models provide adequate descriptions of the process. In others, BSP models yield better fits. In general, the discrete case admits a simple spatial Poisson model for counts and does not require BSP model extensions.
APA, Harvard, Vancouver, ISO, and other styles
41

Pérez, Aros Pedro Antonio. "Subdifferential calculus in the framework of Epi-pointed variational analysis, integral functions, and applications." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/150762.

Full text
Abstract:
Tesis para optar al grado de Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática
La investigación de esta tesis es presentada en seis capítulos, desde el Capítulo 2 al Capítulo 7. El capítulo 2 proporciona una demostración directa de una caracterización reciente de convexidad dada en el marco de los espacios de Banach en [J. Saint Raymond, J. Convexo no lineal Anal., 14 (2013), pp. 253-262]. Estos resultados también extienden esta caracterización a espacios localmente convexos bajo condiciones más débiles y se basa en la definición de una función epi-puntada. El Capítulo 3 proporciona una extensión del Teorema Br{\o}ndsted-Rockafellar, y algunas de sus importantes consecuencias, a las funciones convexas semicontinuas inferiores definidas en espacios localmente convexos. Este resulado es demostrado usando un nuevo enfoque basado en un principio variacional simple, que también permite recuperar los resultados clásicos de una manera natural. El Capítulo 4 continúa el estudio de la epi-puntadas no convexas, bajo una definición general de subdiferencial. Este trabajo proporciona una generalización del teorema del valor medio de Zagrodny. Posteriormente este resultado es aplicado a los problemas relacionados con la integración de subdiferenciales y caracterización de la convexidad en términos de la monotonicidad del subdiferencial. El Capítulo 5 proporciona una fórmula general para $\epsilon$-subdiferencial de una función integral convexa en términos de $\epsilon$-subdiferenciales de la funcion integrante. Bajo condiciones de calificación, esta fórmula recupera los resultados clásicos en la literatura. Además, este trabajo investiga caracterizaciones del subdiferencial en términos de selecciones medibles que convergen al punto de interés. El Capítulo 6 proporciona fórmulas secuenciales para subdiferenciales bornológicos de un funcional integral no convexo. También son presentadas fórmulas exactas para el subiferencial Limiting/Mordukhovich, el subdiferencial Geometrico de Ioffe y el subdiferencial de Clarke-Rockafellar. El Capítulo 7 proporciona fórmulas para el subdiferencial de funciones de probabilidad bajo distribuciones Gaussianas. En este trabajo la variables de decisión esta tomada en un espacio infinito dimensional. Estas fórmulas se basan en la descomposición esférico-radial de vectores aleatorios Gaussianos.
CONICYT-PCHA/doctorado Nacional / 2014-21140621 y CMM - Conicyt PIA AFB170001
APA, Harvard, Vancouver, ISO, and other styles
42

Solà, Belda Carles. "Economic action and reference points: an experimental analysis." Doctoral thesis, Universitat Autònoma de Barcelona, 2001. http://hdl.handle.net/10803/4019.

Full text
Abstract:
Aquesta tesi analitza diversos aspectes de les motivacions individuals i de les seves implicacions en processos econòmics. Específicament, analitzo en detall criteris normatius que poden aplicar els individus com són els de justícia i reciprocitat. En la Introducció defineixo l'ús que en faig de conceptes com la reciprocitat, la justícia, la "dependència del menú" i els "punts de referència" donat que s'empren en el desenvolupament dels diferents capítols. També es descriu la metodologia emprada, que consisteix en alguns models teòrics sobre el comportament dels individus en situacions estratègiques, incorporant elements de la Teoria dels Jocs i l'ús de la metodologia experimental. En el segon capítol, " El concepte de justícia de Rabin i la provisió privada de béns públics", analitzo en detall les implicacions de la teoria de Rabin (1993) sobre el comportament estratègic d'individus. Aquest model introdueix en la funció d'utilitat , a més dels pagaments econòmics que un individu obté, aspectes psicològics com el sentit de justícia en les relacions econòmiques amb altres individus. En aquest capítol examino les implicacions d'una extensió de la teoria a un camp a on existeix una acumulació de resultats experimentals en contradicció amb el comportament predit pels models estàndard de la teoria dels jocs. Mostro que la teoria d'en Rabin és consistent amb el que s'anomena "splitting" però inconsistent amb el que es coneix com a "efecte MPCR". El tercer capítol, "Punts de referència i reciprocitat negativa en jocs seqüencials simples", analitza la influència que poden tenir certs vectors de pagaments no disponibles en un moment de decisió, anomenats "punts de referència", sobre la preferència per un altre conjunt de vectors de pagaments. Això es connecta amb l'atribució de certes intencions a altres subjectes quan trien determinats cursos d'acció en el joc. Mitjançant la utilització d'experiments s'obtenen resultats que confirmen la importància dels punts de referència en les consideracions de reciprocitat que empren els individus. El quart capítol, " Aspectes distribucionals i els punts de referència", analitza alguns aspectes que poden combinar-se amb els punts de referència en la atribució d'intencions. Aquests aspectes són: el pagament que podia rebre un agent en el punt de referència, el seu pagament relatiu a l'altre agent i, finalment, el pagament conjunt que podien obtenir els dos agents en el punt de referència. Els resultats experimentals obtinguts mostren que cap d'aquests efectes pot explicar per ell mateix els resultats. Finalment, el cinquè capítol, " Els joc del dilema dels presoners en forma seqüencial: Reciprocitat i efectes de dimensió del grup" estudia les reaccions dels individus a certes decisions d'altres individus del procés i els canvis d'aquestes reaccions amb la dimensió del grup. Els resultats experimentals obtinguts , mostren que el comportament observat és consistent amb consideracions de reciprocitat i d'aversió a la desigualtat.
This thesis analyzes several aspects of the motivations that drive individuals and their implications in economic processes. In particular, I analyze in detail normative criteria that individuals apply such as those of fairness and reciprocity. In the Introduction I define the use I make of the concepts of reciprocity, fairness, menu dependence and reference points that will be used in the course of the different chapters. The methodology developed in this thesis employs some theoretical models on the behavior of individuals in strategic interactions, using elements of Game Theory and Experimental Economics. In the second chapter, "On Rabin's Concept of Fairness and the Private Provision of Public Goods", I analyze in detail the implications of Rabin's (1993) theory of individual behavior and its implications. This model introduces, apart from the economic payoffs that the individual obtains in a strategic interaction, psychological phenomena, mainly a sense of fairness in the relation with other agents. In this chapter I analyze the implications of an extended version of this theory to a field where there exists a vast amount of experimental evidences contradicting the behavior predicted by standard game theoretical models. I show that Rabin's theory is consistent with one piece of evidence repeatedly found in experiments, the so call "splitting". I also show that the model is inconsistent with another piece of evidence in the field, the "MPCR effect". The third chapter, "Reference Points and Negative Reciprocity in Simple Sequential Games", analyzes the influence that certain payoff vectors, the "reference points", not attainable at that time, may have on the preference by other payoff vectors. This is connected with the attribution of certain intentions to the other players when selecting some courses of action. By using experiments I obtain results that confirm the importance of these reference points in the reciprocity considerations that individuals apply. Chapter four , "Distributional Concerns and Reference Points", analyzes some aspects that may interact with the reference points in the attributions of intentions. These aspects are the payoff to the agent from a given course of action, his/her relative payoff and the joint payoff. The experimental results show that none of these elements is able to explain by itself the results. Finally, the fifth chapter, "The Sequential Prisoner's Dilemma Game: Reciprocity and Group Size Effects" analyzes how aspects of the individual motivations interact with social aspects. In particular it studies how the reactions of individuals change with the dimension of the group in certain processes. The experimental results obtained show that in the prisoner's dilemma game (two-person and three-person games) the behavior of subjects may be consistent with reciprocity considerations and with inequality aversion considerations.
APA, Harvard, Vancouver, ISO, and other styles
43

Connolley, Michael J. (Michael Joseph). "An empirical study of function points analysis reliability." Thesis, Massachusetts Institute of Technology, 1990. http://hdl.handle.net/1721.1/37704.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Moloi, K. D., and P. C. N. Groenewald. "Bayesian analysis of change-points in poisson processes." Interim : Interdisciplinary Journal, Vol 3, Issue 2: Central University of Technology, Free State, Bloemfontein, 2004. http://hdl.handle.net/11462/449.

Full text
Abstract:
Published Article
Change-point analysis deals with the situation where an abrupt change has possibly taken place in the underlying mechanism that generates random variables. In a parametric setting, this means a change in the parameters of the underlying distribution. The interest is in whether such a change has actually taken place, and if it has, at which point in time. Also, there may have been more than one change during the period of interest. Application of change-point analysis is wide, but is particularly relevant in finance, the environment and medicine. The violability of markets may change abruptly, the rate and intensity of natural phenomena may change, or the effect of treatments in clinical trails may be studied. The literature on change-point problems is, by now, enormous. In this study we consider only the so-called non-sequential or fixed sample size version, although an informal sequential procedure, which follows from Smith (1975), is a routine consequence. Still, literature is substantial and our focus is on a fully Bayesian parametric approach. Use of the Bayesian framework for inference with regard to the change-point dates to work by Chernoff and Zacks (1964). Smith (1975) presents the Bayesian formulation for a finite sequence of independent observations. See also Zacks (1983). In our study we will consider only Poisson sequences and will address four situations: 1) When it is assumed that there is exactly one change-point, and proper priors are used. This can be generalised to more than one change-point. If the number of change-points is fixed and known, improper priors are also valid as will be explained later. 2) When there is a fixed number of change-points, the Markov Chain Monte Carlo method of Chib (1998) is useful, especially for large samples and multiple changepoints This approach will be described and applied. 3) When the number of change-points is unknown, and we want posterior probability distributions of the number of change-points, only proper priors are valid for calculating Bayes factors. In the case when no prior information is available, improper priors will cause the Bayes factor to have an indeterminate constant. In this case we apply the Fractional Bayes factor method of O’Hagan (1995). 4) When the data consists of multiple sequences, it is called multi-path changepoint analysis, and the distribution from which the change-points are drawn is of interest. Here the posterior distributions of parameters are estimated by MCMC methods. All the techniques are illustrated using simulated and real data sets.
APA, Harvard, Vancouver, ISO, and other styles
45

Allali, Sébastien. "Le freudo-marxisme : analyse des points de rupture." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC066.

Full text
Abstract:
Les pères du freudo-marxisme, Otto Gross et Wilhelm Reich, s'éloignèrent de bien des idées de Freud, ce qui obligea ce dernier à prendre ses distances avec des disciples devenus indésirables. Les points de rupture concernent l'étiologie des névroses, la possibilité d'une « psychothérapie populaire », les modalités de la cure, les rapports entre psychanalyse et politique, la famille, l'éducation, la religion, le travail ou encore la création artistique. La pensée de Gross et celle de Reich ont néanmoins eu un rôle de taille, non seulement dans l'histoire de la psychanalyse mais encore dans l'élaboration même de la pensée freudienne. Ils furent les premiers à insister sur la part essentielle de la misère économique et de la misère sexuelle dans l'origine des névroses. Le fond du désaccord théorique et clinique est anthropologique : rousseauistes, Gross et Reich pensent que l'homme est bon et que son agressivité résulte d'une dysharmonie sociale. Freud croit en revanche en l'existence d'une pulsion de mort dont le déni constitue la pierre angulaire du freudo-marxisme
The fathers of Freudo-marxism, Otto Gross and Wilhelin Reich, walked away from many of Freud's ideas ; this forced him to distance himself from his disciples, whom he now deemed undesirable. The breaking points concern the etiology of neuroses, the possibility of a « popular psychotherapy », the cure's modalities, the relationship between psychoanalysis and politics, family, education, religion, work, or artistic creation. However, Gross and Reich's thoughts have had a significant role, not only in the history of psychoanalysis, but also in the very construction of Freudian thought. They were the first to emphasise the fundamental part of both the economic misery and the sexual one in the origin of neuroses. The core of the theoretical and clinical disagreement is anthropological: Gross and Reich, who are both Rousseausist, think that man is intrinsically good, and that his aggressivity is the result of a social disharmony. Freud, on the contrary, believes in the existence of a death wish, the denial of which provides Freudo-marxism with its cornerstone
APA, Harvard, Vancouver, ISO, and other styles
46

Ding, Xinli. "Generalized critical points analysis of acetylene vibrational dynamics /." view abstract or download file of text, 2004. http://wwwlib.umi.com/cr/uoregon/fullcit?p3120621.

Full text
Abstract:
Thesis (Ph. D.)--University of Oregon, 2004.
Typescript. Includes vita and abstract. Includes bibliographical references (leaves 145-154). Also available for download via the World Wide Web; free to University of Oregon users.
APA, Harvard, Vancouver, ISO, and other styles
47

Walter, Nicolas. "Détection de primitives par une approche discrète et non linéaire : application à la détection et la caractérisation de points d'intérêt dans les maillages 3D." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00808216.

Full text
Abstract:
Ce manuscrit est dédié à la détection et la caractérisation de points d'intérêt dans les maillages. Nous montrons tout d'abord les limitations de la mesure de courbure sur des contours francs, mesure habituellement utilisée dans le domaine de l'analyse de maillages. Nous présentons ensuite une généralisation de l'opérateur SUSAN pour les maillages, nommé SUSAN-3D. La mesure de saillance proposée quantifie les variations locales de la surface et classe directement les points analysés en cinq catégories : saillant, crête, plat, vallée et creux. Les maillages considérés sont à variété uniforme avec ou sans bords et peuvent être réguliers ou irréguliers, denses ou non et bruités ou non. Nous étudions ensuite les performances de SUSAN-3D en les comparant à celles de deux opérateurs de courbure : l'opérateur de Meyer et l'opérateur de Stokely. Deux méthodes de comparaison des mesures de saillance et courbure sont proposées et utilisées sur deux types d'objets : des sphères et des cubes. Les sphères permettent l'étude de la précision sur des surfaces différentiables et les cubes sur deux types de contours non-différentiables : les arêtes et les coins. Nous montrons au travers de ces études les avantages de notre méthode qui sont une forte répétabilité de la mesure, une faible sensibilité au bruit et la capacité d'analyser les surfaces peu denses. Enfin, nous présentons une extension multi-échelle et une automatisation de la détermination des échelles d'analyse qui font de SUSAN-3D un opérateur générique et autonome d'analyse et de caractérisation pour les maillages
APA, Harvard, Vancouver, ISO, and other styles
48

Trickey, Robert V. "Critical points of discrete potentials in the plane and in space." Thesis, University of Nottingham, 2008. http://eprints.nottingham.ac.uk/14362/.

Full text
Abstract:
This thesis looks at various problems relating to the value distribution of certain discrete potentials. Chapter 1 - Background material is introduced, the motivation behind this work is explained, and existing results in the area are presented. Chapter 2 - By using a method based on a result of Cartan, the existence of zeros is shown for potentials in both the complex plane and real space. Chapter 3 - Using an argument of Hayman, we expand on an established result concerning these potentials in the complex plane. We also look at the consequences of a spacing of the poles. Chapter 4 - We extend the potentials in the complex plane to a generalised form, and establish some value distribution results. Chapter 5 - We examine the derivative of the basic potentials, and explore the assumption that it takes the value zero only finitely often. Chapter 6 - We look at a new potential in real space which has advantages over the previously examined ones. These advantages are explained. Appendix - The results of computer simulations relating to these problems are presented here, along with the programs used.
APA, Harvard, Vancouver, ISO, and other styles
49

Kovalov, Ievgen. "Context-sensitive Points-To Analysis : Comparing precision and scalability." Thesis, Linnéuniversitetet, Institutionen för datavetenskap, fysik och matematik, DFM, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-18225.

Full text
Abstract:
Points-to analysis is a static program analysis that tries to predict the dynamic behavior of programs without running them. It computes reference information by approximating for each pointer in the program a set of possible objects to which it could point to at runtime. In order to justify new analysis techniques, they need to be compared to the state of the art regarding their accuracy and efficiency. One of the main parameters influencing precision in points-to analysis is context-sensitivity that provides the analysis of each method separately for different contexts it was called on. The problem raised due to providing such a property to points-to analysis is decreasing of analysis scalability along with increasing memory consumption used during analysis process. The goal of this thesis is to present a comparison of precision and scalability of context-sensitive and context-insensitive analysis using three different points-to analysis techniques (Spark, Paddle, P2SSA) produced by two research groups. This comparison provides basic trade-offs regarding scalability on the one hand and efficiency and accuracy on the other. This work was intended to involve previous research work in this field consequently to investigate and implement several specific metrics covering each type of analysis regardless context-sensitivity – Spark, Paddle and P2SSA. These three approaches for points-to analysis demonstrate the intended achievements of different research groups. Common output format enables to choose the most efficient type of analysis for particular purpose.
APA, Harvard, Vancouver, ISO, and other styles
50

Robin-Clerc, Michèle. "Une analyse architecturale et urbaine de l’agglomération de Pointe-à-Pitre et des Abymes en Guadeloupe du point de vue des risques majeurs et du développement durable." Paris 4, 2006. https://hal.archives-ouvertes.fr/tel-03095171.

Full text
Abstract:
Pointe-à-Pitre est située au centre d’une agglomération urbaine de 132 000 habitants dont elle draine chaque jour les habitants. Cette ville a de nombreuses fonctions, qu’elles soient politiques, administratives, touristiques ou commerciales. Sa place dans l’inconscient collectif est prépondérante et elle a ainsi un rôle social de première importance. Aujourd’hui, l’agglomération pointoise ne peut faire face dans de bonnes conditions à un séisme majeur. Sa vulnérabilité aux autres risques est moins importante. Les références existantes sur l’activité sismique aux Antilles ne portent que sur environ 3 siècles ; de nombreuses incertitudes subsistent sur l’aléa sismique auquel est soumise la Guadeloupe, et les séismes historiques sont actuellement estimés avec des marges d’erreur certaines. On se propose ici d’analyser ces différentes incertitudes pour permettre une approche plus fine de l’exposition au risque de la Guadeloupe. Nous avons réalisé une étude historique très poussée qui, à l’aide de plans, de cartes et de textes, nous a permis de reconstituer l’histoire de la morphologie urbaine et de la typologie architecturale de l’agglomération pointoise, à travers les risques majeurs principaux auxquels elle est exposée : les séismes, les cyclones et les incendies. Nous avons aussi analysé, sur le territoire de l’agglomération, les voiries et réseaux divers au regard des risques majeurs. Les éléments étudiés nous permettent de mieux comprendre la vulnérabilité de cette agglomération dans son ensemble
The urban zone of Pointe-à-Pitre in Guadeloupe, located in the middle of a concentration of 132 000 inhabitants, has many functions : political, administrative and commercial. Its tourist importance is essential for Guadeloupe. At last but not least, the place of Pointe-à-Pitre in the collective unconscious is predominant, it has so a first level social function. Today, the urban morphology and typology of the town is not able to face a seismic disaster. Its vulnerability to the others major risks is less important. I made a deep historic study that, with the help of plans, maps and texts, allowed me to recount the urban morphology and typology history of the urban zone, through the main major risks that have affected and can affect still now that centre : earthquakes, cyclones and fires. I analyse too, facing major risks, the public highways and all the infrastructures of the territory. The existing references on the seismic activity to the Antilles relate only to approximately 3 centuries. Thus, many uncertainties remain on the seismic risk to which Guadeloupe is subjected. One proposes here to analyze these various uncertainties in order to permit a finer approach of the seismic risk for that territory. The studied elements permit to understand better the vulnerability of that centre to the major risks
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography