To see the other types of publications on this topic, follow the link: UPb dating.

Dissertations / Theses on the topic 'UPb dating'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'UPb dating.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bootes, Nathaniel R. "Late Cenozoic Offshore Record of Exhumation and Sediment Routing in Southeast Alaska from Detrital Zircon U/Pb and FT double-dating." University of Cincinnati / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1592169111121451.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Brown, Stephen. "Analyse structurale et âge des déformations cassantes à micro- et méso-échelle dans un bassin sédimentaire intracontinental : le cas du Bassin de Paris." Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1325.

Full text
Abstract:
Le domaine intracontinental est éloigné des limites des plaques tectoniques sur lesquelles sont localisées l’essentiel des déformations. La déformation intraplaque est une conséquence de la transmission de la contrainte depuis les limites de plaques vers le domaine intraplaque. Elle peut s’exprimer par un flambage lithosphérique, par des déformations régionales et des réseaux de fractures à micro- et méso-échelle. Ces déformations reflètent la nature des régimes de contraintes aux limites des plaques continentales. Elles ont une distribution hétérogène et à l'échelle régionale, révèlent souvent les directions d'un cadre structural préexistant. Le rôle de cet héritage structural à l'échelle micro et méso reste cependant mal compris. Ce travail de thèse se concentre sur les déformations cassantes à micro- (millimétrique à centimétrique) et méso-échelle (centimétrique à métrique) du domaine intra-plaque.Dans les zones urbaines avec des infrastructures souterraines importantes, il est essentiel de mieux comprendre la géométrie et la distribution des réseaux de fractures. Ces réseaux contrôlent, dans une certaine mesure, la dynamique de la circulation des fluides souterrains. Dans le cadre de cette thèse, la distribution, les géométries, les cinématiques et les chronologies relatives et absolues de ces déformations intraplaques ont été étudiées dans le Bassin de Paris. Pour ce faire, nous avons utilisé une approche multi-technique combinant travail de terrain et de laboratoire, afin d'aborder à deux échelles différentes : la micro-échelle et la méso-échelle. Les différentes méthodes utilisées sont l’inversion des données microtectoniques pour remonter à des paleo-contraintes, la datation absolue U-Pb des calcites de veines et de faille, et l'inversion des données de susceptibilité magnétique et de vitesse des ondes P afin de caractériser les microstructures internes des échantillons de roches.Les résultats nous permettent de proposer un modèle de déformations intraplaques dans le Bassin de Paris et de discuter du lien avec les événements géodynamiques de l'Europe occidentale tels que les orogénèses pyrénéenne et alpine et le système de rifting cénozoïque européen (ECRIS).Les données montrent que les déformations intraplaques dans le Bassin de Paris sont plus qu'une simple réactivation des discontinuités du socle. Ces déformations s’expriment via un vaste réseau de joints cassants, et sous forme de réseaux de failles, bien que plus rares. Enfin, grâce à la datation U-Pb de la calcite, nous montrons que la chronologie du réseau de failles spatialement hétérogène est surtout contemporaine des phases paroxysmales de déformation de l'orogenèse pyrénéenne. Ainsi, les champs de paléocontraintes déduits de l’inversion des plans de failles datés indiquent davantage l'orientation de la compression pyrénéenne que celle de la compression alpine ou de l'extension de l'ECRIS. Enfin, l'anisotropie de la vitesse des ondes P suggère que le réseau interne de fractures microstructurales des échantillons de craie reflète la nature géométrique des joints mesurés sur le terrain
The intracontinental domain is located far from tectonic plate margins, where significant stress can accumulate. Deformation of the intraplate domain is a consequence of stress transmission from plate boundaries. It results in lithospheric buckling, regional deformations, and meso to microscale fracture networks. These intraplate deformations reflect the nature of stress regimes at continental plate boundaries. They often have a heterogeneous distribution, and on a regional scale, are frequently impacted by the directions of pre-existing faults or weaknesses. The role of a structural inheritance remains to be shown on a micro and mesoscale.Understanding intraplate deformation is crucial for assessing geological hazards and fluid circulation in the context of subsurface solicitation. This is especially true in densely populated areas with substantial underground infrastructure. In this PhD, we investigate the geometries, distribution, kinematics, and timing of these intraplate deformations within the intracontinental Paris Sedimentary Basin, with the city of Paris at its center.To achieve this and to attempt to link the different scales of structures, we use multiple techniques, combining fieldwork and laboratory work, in order to approach the problem from two different scales: the mesoscale (metric to centimetric) and microscale (centimetric to millimetric). The structural analyses include calculating paleostress fields from microtectonic data collected in the field and in-situ U-Pb absolute dating of synkinematic calcites and calcitic veins. The microscale is investigated through the inversion of magnetic susceptibility and P-wave velocity data to characterize the internal microstructures of rock samples.The data show that an extensive network of multi-directional brittle joints exists and is expressed at different scales. In chalk samples for example, the measured anisotropy of P-wave velocity reflects the directions of mesoscale joints measured in the field. When the applied shear stress exceeds the shear strength of the joint, failure occurs. This can manifest as sliding or fracturing along the joint plane. Thus, some of the joints are reactivated later. Evidences of faulting, while less common than joints, also exist in the Paris Basin. Calculated paleostress tensors indicate mostly strike-slip faulting regimes with maximal principal stress axes (sigma1) roughly N-S. This direction is concordant with the N-S orientation of Pyrenean compression more so than Alpine compression or Tertiary extension at the origin of the European rifted continental basins. Furthermore, through in-situ U-Pb dating of calcite mineralized along fault planes or within veins, we show that the Late Cretaceous to Eocene timing of the fault network is more aligned with the Pyrenean Orogeny than the Alpine Orogeny or the European Cenozoic Rift System (ECRIS)
APA, Harvard, Vancouver, ISO, and other styles
3

Demory, François. "Paleomagnetic dating of climatic events in Late Quaternary sediments of Lake Baikal (Siberia)." Phd thesis, Universität Potsdam, 2004. http://opus.kobv.de/ubp/volltexte/2005/181/.

Full text
Abstract:
Der Baikalsee ist ein ideales Klimaarchiv für die Mitte Eurasiens. In dieser Arbeit wurde gesteinsmagnetische und paleomagnetische Analysen an hemipelagischen Sequenzen von vier Lokationen analysiert. Die Kerne erreichen ein Alter von maximal 300 ky. In Kombination mit TEM, XRD, XRF und geochemischen Analysen zeigt die gesteinsmagnetische Studie, dass detritischer Magnetit das magnetische Signal der glazialen Sedimente dominiert. Die magnetischen Signale der interglazialen Sedimente wurden durch diagenetische Prozesse verändert. Mittels HIRM können Hämatit und Goethit quantifiziert werden. Diese Methode eignet sich, den detritischen Eintrag in den Baikalsee abzuschätzen. Relative Paleointensitäten des Erdmagnetfeldes ergaben reproduizerbare Muster, welche in Korrelation mit gutdatierten Referenzproben die Ableitung eines alternativen Altersmodells für die Datierung der Baikalsedimente ermöglichten. Bei Anwendung des paleomagnetischen Altersmodells beobachtet man, dass die Abkühlung im Baikalgebiet und im Oberflächenwasser des Nordatlantiks wie sie aus den δ18 O-Werten planktonischer Foraminiferen abgeleitet werden kann, zeitgleich ist. Wird das aus benthischen δ18 O-Werten abgeleitete Altermdodell auf den Baikalsee angewandt, ergibt sich eine deutliche Zeitverschiebung. Das benthische Altersmodell repräsentiert die globale Veränderung des Eisvolumens, welche später als die Vänderung der Oberflächenwassertemperatur auftritt. Die Kompilation paleomagnetischer Kurven ergab eine neue relative Paleointensitätskurve “Baikal 200”. Mittels Korngrössenanalyse des Detritus konnten drei Faziestypen mit unterschiedlicher Sedimentationsdynamik unterschieden werden: 1) Glaziale Peroiden werden durch hohe Tongehalte infolge von Windeintrag und durch grobe Sandfraktion mittels Transport durch lokale Winde über das Eis charakterisiert. Dieser Faziestyp deutet auf arides Klima. 2) Während der Glazial/Interglazial-Übergänge steigt die Siltfraktion an. Dies deutet auf erhöhte Feuchtigkeit und damit verbunden erhöhte Sedimentdynamik. Windtransport und in den Schnee der Eisdecke eingetragener Staub sind die vorherrschenden Prozesse, welche den Silt in hemipelagischer Position zur Ablagerung bringen. 3) Während des klimatischen Optimum des Eeemian werden Grösse und Quantität des Silts minimal, was auf eine geschlossene Vegetationsdecke im Hinterland deutet.
Lake Baikal provides an excellent climatic archive for Central Eurasia as global climatic variations are continuously depicted in its sediments. We performed continuous rock magnetic and paleomagnetic analyses on hemipelagic sequences retrieved from 4 underwater highs reaching back 300 ka. The rock magnetic study combined with TEM, XRD, XRF and geochemical analyses evidenced that a magnetite of detrital origin dominates the magnetic signal in glacial sediments whereas interglacial sediments are affected by early diagenesis. HIRM roughly quantifies the hematite and goethite contributions and remains the best proxy for estimating the detrital input in Lake Baikal. Relative paleointensity records of the earth′s magnetic field show a reproducible pattern, which allows for correlation with well-dated reference curves and thus provides an alternative age model for Lake Baikal sediments. Using the paleomagnetic age model we observed that cooling in the Lake Baikal region and cooling of the sea surface water in the North Atlantic, as recorded in planktonic foraminifera δ18 O, are coeval. On the other hand, benthic δ18 O curves record mainly the global ice volume change, which occurs later than the sea surface temperature change. This proves that a dating bias results from an age model based on the correlation of Lake Baikal sedimentary records with benthic δ18 O curves. The compilation of paleomagnetic curves provides a new relative paleointensity curve, “Baikal 200”. With a laser-assisted grain size analysis of the detrital input, three facies types, reflecting different sedimentary dynamics can be distinguished. (1) Glacial periods are characterised by a high clay content mostly due to wind activity and by occurrence of a coarse fraction (sand) transported over the ice by local winds. This fraction gives evidence for aridity in the hinterland. (2) At glacial/interglacial transitions, the quantity of silt increases as the moisture increases, reflecting increased sedimentary dynamics. Wind transport and snow trapping are the dominant process bringing silt to a hemipelagic site (3) During the climatic optimum of the Eemian, the silt size and quantity are minimal due to blanketing of the detrital sources by the vegetal cover.
APA, Harvard, Vancouver, ISO, and other styles
4

Kleinwächter, Kai, and Martin Anselm Meyerhoff. "Türkei : Daten und Fakten." Universität Potsdam, 2008. http://opus.kobv.de/ubp/volltexte/2008/2337/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Kralemann, Björn Christian. "Die Rekonstruktion invarianter Phasenmodelle aus Daten." Phd thesis, Universität Potsdam, 2010. http://opus.kobv.de/ubp/volltexte/2010/4505/.

Full text
Abstract:
Ziel dieser Arbeit ist die Überwindung einer Differenz, die zwischen der Theorie der Phase bzw. der Phasendynamik und ihrer Anwendung in der Zeitreihenanalyse besteht: Während die theoretische Phase eindeutig bestimmt und invariant unter Koordinatentransformationen bzw. gegenüber der jeweils gewählten Observable ist, führen die Standardmethoden zur Abschätzung der Phase aus gegebenen Zeitreihen zu Resultaten, die einerseits von den gewählten Observablen abhängen und so andererseits das jeweilige System keineswegs in eindeutiger und invarianter Weise beschreiben. Um diese Differenz deutlich zu machen, wird die terminologische Unterscheidung von Phase und Protophase eingeführt: Der Terminus Phase wird nur für Variablen verwendet, die dem theoretischen Konzept der Phase entsprechen und daher das jeweilige System in invarianter Weise charakterisieren, während die observablen-abhängigen Abschätzungen der Phase aus Zeitreihen als Protophasen bezeichnet werden. Der zentrale Gegenstand dieser Arbeit ist die Entwicklung einer deterministischen Transformation, die von jeder Protophase eines selbsterhaltenden Oszillators zur eindeutig bestimmten Phase führt. Dies ermöglicht dann die invariante Beschreibung gekoppelter Oszillatoren und ihrer Wechselwirkung. Die Anwendung der Transformation bzw. ihr Effekt wird sowohl an numerischen Beispielen demonstriert - insbesondere wird die Phasentransformation in einem Beispiel auf den Fall von drei gekoppelten Oszillatoren erweitert - als auch an multivariaten Messungen des EKGs, des Pulses und der Atmung, aus denen Phasenmodelle der kardiorespiratorischen Wechselwirkung rekonstruiert werden. Abschließend wird die Phasentransformation für autonome Oszillatoren auf den Fall einer nicht vernachlässigbaren Amplitudenabhängigkeit der Protophase erweitert, was beispielsweise die numerischen Bestimmung der Isochronen des chaotischen Rössler Systems ermöglicht.
The aim of this work is to bridge the gap between the theoretical description of the phase dynamics of coupled oscillators and the application of the theory to model reconstruction from time series analysis. In the theory, the phase of a self-sustained oscillator is defined in an unambiguous way, whereas the standard techniques used to estimate phases from given time series provide observabledependent results, so that generally these estimates deviate from the true phase. To stress this crucial issue, we term the observable-dependent phase-like variables as protophases. The main goal of this work is to develop a deterministic transformation from arbitrary protophases to the true, unique phase of the selfsustained oscillator. This approach allows us to obtain an invariant description of coupled oscillators and of their interaction. The application of the transformation and its efficiency are illustrated by means of numerical examples, as well as by the reconstruction of phase models of the cardiorespiratory interaction from multivariate time series of ECG, pulse and respiration. Next, the transformation from protophases to phases is extended for the case of three coupled oscillators. Finally, we go beyond the phase approximation and extend the phase transformation for autonomous oscillators to the case when the amplitude dynamics cannot be neglected. This technique for example allows us to compute numerically the isochrones of the chaotic Roessler system.
APA, Harvard, Vancouver, ISO, and other styles
6

Skrobot, Sarah L. "Dating and Hooking up: An Analysis of Hooking up as a Campus Norm and the Impact on Women's Self Perception." Ohio University / OhioLINK, 2010. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1276456827.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Angiolini, Giacomo. "Ottimizzazione di protocolli di trasmissione dati tramite interfaccia usb implementati su fpga." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6938/.

Full text
Abstract:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
APA, Harvard, Vancouver, ISO, and other styles
8

Betzin, Jörg. "Ein korrespondenzanalytischer Ansatz für Pfadmodelle mit kategorialen Daten." Universität Potsdam, 1996. http://opus.kobv.de/ubp/volltexte/2010/4910/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Frieg, Hendrike, and Eva Belke. "Ein Verfahren zur altersübergreifenden Analyse schriftsprachlicher Daten in der Grundschule." Universität Potsdam, 2013. http://opus.kobv.de/ubp/volltexte/2013/6853/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Neri, Lorenzo. "Progetto e realizzazione di un sistema UWB per comunicazioni audio e dati a breve raggio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11559/.

Full text
Abstract:
In questo elaborato si vuole studiare l’implementazione di un sistema di comunicazione dati e audio basato su segnali Ultra Wide Band (UWB). L’obiettivo del progetto è quindi quello di implementare un sistema di comunicazione punto-multi punto basato su UWB.
APA, Harvard, Vancouver, ISO, and other styles
11

Meyerhöfer, Wolfram. "Was misst TIMSS? : Einige Überlegungen zum Problem der Interpretierbarkeit der erhobenen Daten." Universität Potsdam, 2001. http://opus.kobv.de/ubp/volltexte/2005/22/.

Full text
Abstract:
Bei der Erstellung und Interpretation mathematischer Leistungstests steht die Frage, was eine Aufgabe mißt. Der Artikel stellt mit der strukturalen oder objektiven Hermeneutik eine Methode vor, mit der die verschiedenen Dimensionen der von einer Aufgabe erfassten Fähigkeiten herausgearbeitet werden können. Dabei werden fachliche Anforderungen, Irritationsmomente und das durch die Aufgabe transportierte Bild vom jeweiligen Fach ebenso erfasst wie Momente, die man eher als Testfähigkeit bezeichnen würde.Am Beispiel einer TIMSS-Aufgabe wird diskutiert, dass das von den Testerstellern benutzte theoretische Konstrukt kaum geeignet ist, nachhaltig zu beschreiben, was eine Aufgabe misst.
The design and interpretation of aptitude tests in mathematics provoke questions as to what each of the set tasks actually measures. With structural or objective hermeneutics, this article introduces a methodology capable of discerning the various dimensions of skills required for a particular task. Not only does this approach allow for the recognition of the technical requirements of the task, its off-putting factors and the image of the subject conveyed. The methodology is also able to locate the elements addressing the kind of skill that can more accurately be clas-sified as 'test ability'. Focusing on an example selected from a TIMSS aptitude test, the discussion seeks to de-monstrate that the theoretical construction employed in setting the test is hardly suited to define with any sense of permanence what is measured by each task.
APA, Harvard, Vancouver, ISO, and other styles
12

Prietzsch, Carmen Corinna. "Vergleichende Analyse von SAR-Daten für die Regionalisierung des Wassergehalts im Oberboden." Phd thesis, Universität Potsdam, 1998. http://opus.kobv.de/ubp/volltexte/2005/141/.

Full text
Abstract:
Flugzeug- und Shuttle getragene SAR-Systeme werden zur Ableitung des Bodenwassergehalt im Oberboden verwendet. Die Untersuchungsgebiete lagen auf der Insel Rügen, in Oberbayern (Oberpfaffenhofen) und in Oklahoma (Little Washita). Die Regionalierung mit Fernerkundungsdaten wird anhand von geostatistisch aufbereiteten Referenzmessungen aus dem Feld verifiziert. Verschiedene Ableitungsverfahren (Regression, Rückstreuungsmodellierung, Nomogramme und Inversionsmodellierung) werden verglichen und Fehlermargen werden abgeleitet.
Airborne and shuttle-borne SAR systems are used for the retrieval of the soil water content in the upper soil layer. The investigation areas were located on Ruegen island, southern Bavaria, Germany, and Oklahoma (Little Washita), USA. The regionalization with remote sensing data is checked with geostatistically prepared field measurements of the soil water content. Different retrieval methods are compared (regression analysis, backscattering modeling, nomograms and inversion modelling) and error margins are retrieved.
APA, Harvard, Vancouver, ISO, and other styles
13

Warkus, Friederike C. "Untersuchungen an Hochdruckrelikten im zentralen Menderes Massiv, W Türkei." Phd thesis, Universität Potsdam, 2001. http://opus.kobv.de/ubp/volltexte/2005/28/.

Full text
Abstract:
Das Menderes Massiv im Westen der Türkei stellt eine große Kulmination metamorpher Gesteine dar. Das Untersuchungsgebiet ist im Zentralen Menderes Massiv (Ödemis Submassiv) gelegen, das von den beiden aktiven Gräben, dem Gediz Graben im Norden und dem Büyük Menderes Graben im Süden begrenzt wird.
Die Untersuchungen der Eklogit Relikte im zentralen Menderes Massiv haben ergeben, dass sich im Menderes Massiv Hochdruckrelikte in unterschiedlichen tektonischen Positionen befinden. Zum einen existieren Eklogit-Blöcke in der obersten Einheit (Selcuk Einheit) des zentralen Menderes Massivs und zum anderen Hochdruck-Relikte in der strukturell mittleren Birgi - Tire Decke. Die Granate der quarzfreien Eklogit-Blöcke weisen große Ähnlichkeiten mit denen der HP/LT Gesteine von Sifnos und Syros auf. Die Entwicklung der Eklogit-Blöcke in der Olistostrom-Einheit lässt sich jedoch nicht mit den Eklogit Relikten in der strukturell mittleren Birgi Tire Decke vergleichen.
Für die Eklogit-Relikte in der Birgi Tire Decke wurde eine polymetamorphe Entwicklung mithilfe petrologischer Untersuchungen und chemischen und Pb-Pb Datierungen herausgearbeitet. Die Eklogit Relikte gehören zu einem metamorphen Teilpfad, der durch eine Amphibolitfazies 1 - Hochdruck - Amphibolitfazies 2/Granulitfazies charakterisiert ist. Der Endpunkt dieses Teilpfades ist mit Temperaturen zwischen 700 und 750 °C und Drücken von 1.2 - 1.4 GPa belegt. Für diese Bedingungen konnte ein minimales Alter von 520 Ma durch chemische Datierungen an Monaziten einer Augengneisprobe und Pb-Pb Datierungen an Zirkonen einer Augengneis- und Metagabbroprobe bestimmt werden. Dieser amphibolit/granulitfazieller Endpunkt wird mit den Granitintrusionen des zentralen und südlichen Menderes Massiv korreliert, die in einem Zeitraum zwischen 520 Ma bis 550 Ma stattfanden.
Sowohl die Amphibolitfazies 1 als auch das Hochdruckereignis werden der Panafrikanischen Orogenese zugeordnet. Für die Hochdruckbedingungen wurden maximale Temperaturen zwischen 680°C und 720°C und bei einem Druck von 2.2 GPa bestimmt. In den untersuchten Metasedimenten konnte eine prograde metamorphe Entwicklung abgeleitet werden, die amphibolitfazielle Bedingungen von 660°C bei 0.6 GPa erreichte. Das Metamorphosealter dieser Metasedimente konnte mit < 100 Ma mittels chemischer Mikrosondendatierung bestimmt werden. Die in den Metasedimenten herausgearbeiteten Druck- und Temperaturbedingungen wurden ebenfalls in den metabasischen Gesteinen bestimmt. Diese Ergebnisse werden als Krustenstapelung der metabasischen Gesteine, Augengneise und Metasedimente interpretiert, die mit der alpinen Orogenese im Zusammenhang stehen.
Durch die Ergebnisse dieser Arbeit lässt sich die Birgi-Tire Decke im zentralen Menderes Massiv genauer charakterisieren. Sie besteht aus Metasedimenten, pelitischen Gneisen, Augengneisen und metabasichen Gesteinen. Die Gneise (pelitische und Augengneise) und die metabasischen Gesteine stellen panafrikanische Relikte dar, die einen amphibolit- eklogit- amphibolit/granulitfaziellen Metamorphosepfad gespeichert haben. Die amphibolit- bis granulitfazielle Metamorphose hängt mit den Granitintrusionen zusammen und fand in einem Zeitraum zwischen 520 - 550 Ma statt. Große Teile der Metasedimente der Birgi Tire Decke haben jedoch nur eine alpine metamorphe Entwicklung durchlaufen, wo sie unter amphibolitfazielle Bedingungen Krustentiefen erreichten, bei denen sie mit den panafrikanischen Relikten zusammen gestapelt wurden und eine gemeinsame Exhumierung erfahren haben.
The Menderes Massif in western Turkey is a large culmination of metamorphic rocks. The investigation area is bounded by two active graben systems, the Gediz Graben in the north and the Büyük Menderes Graben in the south. One result of our investigation in the central Menderes Massif is the occurrence of eclogite relicts in different tectonic positions. On one hand eclogite blocks exist in the structurally highest nappe (Selcuk unit) of the central Menderes Massif, and on the other hand the high pressure relicts exist in the structurally middle Birgi-Tire nappe. The garnets of the quartz-free eclogite blocks in a metaolistostrome unit show large similarities with those which indicate the HP/LT rocks of Sifnos and Syros. The occurrence of the eclogite blocks in the metaolistostrome unit can not be correlated with those of the structural middle nappe (Birgi Tire nappe). By petrological investigations, chemical and Pb-Pb age determinations a polymetamorphic history was found for the eclogite relicts in the Birgi Tire nappe. The eclogite relicts belong to a metamorphic P-T path which is characterized by a amphibolite facies 1 - high pressure - amphibolite facies 2/granulite facies. The last one is characterized by temperatures between 700 and 750 °C and by pressure of 1.2 - 1.4 GPa. A minimum age of 520 Ma was deduced by chemical age determination on monazites and Pb-Pb dating on zircons. The age of the amphibolite/granulite facies condition is correlated with the granite intrusions in the central and southern Menderes Massif which occurred in the range of 520 to 550 Ma. The intrusions belong to the Panafrican orogeny. Therefore the P-T path (amphibolite facies 1 - high pressure - amphibolite facies 2/granulite facies) is assigned to the Panafrican orogeny. The maximum temperatures of the high pressure event are between 680 °C and 720 °C. The pressure amounts to 2.2 GPa. A prograde metamorphic evolution under amphibolite facies conditions was derived for the investigated metasediments. The amphibolite facies conditions took place at a temperature of 660°C and at a pressure of 0.6 GPa. The age of the metasediments was determined as < 100 Ma by means of chemical dating. The same metamorphic conditions could be recognized in the metabasic rocks. The interpretation of this result is that crustal stacking occurred under amphibolite facies conditions during the Alpine orogeny. Due to the presented results, the Birgi Tire nappe in the central Menderes Massif can be characterized more exactly. It consists of metasediments, pelitic and augengneisses, and metabasic rocks. Pelitic and augengneisses and the metabasic rocks represent Panafrican relicts, which have stored an amphibolite - eclogite - amphibolite/granulite facies P-T path. The amphibolite to granulite facies metamorphosis is related to the granite intrusions and took place in a period between 520 - 550 Ma. Parts of the metasediments belonging to the Birgi Tire nappe are influenced by only an alpine metamorphic history. They moved to crustal depths at which they were stacked with the Panafrican relicts under amphibolite facies conditions followed by common exhumation.
APA, Harvard, Vancouver, ISO, and other styles
14

Rostalsky, Ulf. "Entwicklungsdynamik von Beschäftigungsverhältnissen in den neuen Bundesländern : eine Analyse unter Verwendung der Daten des sozioökonomischen Panels." Universität Potsdam, 1997. http://opus.kobv.de/ubp/volltexte/2006/1063/.

Full text
Abstract:
Inhalt:

Veränderte ostdeutsche Lebenswelt - Darstellung der Verschiebungen innerhalb des Erwerbsstatus in den neuen Bundesländern
Erwerbsstatus in Ostdeutschland vor und nach staatlichen Eingriffen
Die sektorale Verteilung der ostdeutschen Wirtschaft
- Erfinder und Nachahmer? Die sektorale Verteilung der ostdeutschen Wirtschaft im Bundeslandvergleich
- Exkurs: Der öffentliche Dienst
Die neuen Berufe - Klassifizierung der ausgeübten Tätigkeiten in den tertiären Beschäftigungsbereichen
- Entwicklungsdynamiken an ausgewählten Beispielen des Dienstleistungssektors
- Geschlecht und Alter als Determinanten der Beschäftigung
APA, Harvard, Vancouver, ISO, and other styles
15

Döring, Matthias. "Der Einfluss von Verwaltungskultur auf die Verwendung von Performance-Daten : eine quantitative Untersuchung der deutschen kreisfreien Städte." Bachelor's thesis, Universität Potsdam, 2012. http://opus.kobv.de/ubp/volltexte/2012/5769/.

Full text
Abstract:
In der aktuellen Performance-Management-Forschung wurden bereits eine Vielzahl von Einflussfaktoren untersucht, die eine zielgerichtete Verwendung von Kennzahlen beeinflussen. Verwaltungskultur spielte hierbei nur eine nachgeordnete Rolle. Die vorliegende Untersuchung verwendet die Daten einer Umfrage in allen kreisfreien Städten Deutschlands, um den Zusammenhang zwischen verschiedenen Kulturtypen und der Verwendung von Kennzahlen zu untersuchen. Als Analyseschema für Verwaltungskultur wird die Grid/Group-Analysis verwendet. Die Ergebnisse sind zum Teil überraschend. Individualistische Kulturen scheinen einen negativen, hierarchistische Kulturen einen positiven Einfluss zu haben. Dennoch wird das Fehlen eines geeigneten Operationalisierungsschemas bemängelt.
The current research on performance management considered several factors influencing the purposeful usage of performance data. Administrative culture is a rather neglected one. This work uses the data from a German-wide survey of all cities with county-status to show the relation between different groups of culture and the usage of performance data. Therefore, the Grid/Group-Analysis is used to categorize administrative culture. The results are partly surprising as individual culture is negatively and hierarchical culture is positively related to the dependent variable. Nevertheless, the missing of a useful operationalization scheme is criticized.
APA, Harvard, Vancouver, ISO, and other styles
16

Dössel, Christian. "Lebenszufriedenheit unter dem Einfluß ausgewählter objektiver und subjektiver Faktoren im innerdeutschen Vergleich : eine Längsschnittanalyse mit den Daten des SOEP." Universität Potsdam, 1999. http://opus.kobv.de/ubp/volltexte/2006/1064/.

Full text
Abstract:
Inhalt:

Von Wohlfahrt zu Lebensqualität zu Zufriedenheit
Zufriedenheitsverteilungen
Forschungshypothesen:
- Alter
- Materielle Situation
- Geschlecht
- Erwerbsstatus
- Sorgen und Anomie
Methode und Datenbasis
Ergebnisse:
- Lebenszufriedenheit und Lebenszufriedenheit
APA, Harvard, Vancouver, ISO, and other styles
17

Salzmann, Martin. "Variation in resumption requires violable constraints : a case study in Alemannic relativization." Universität Potsdam, 2009. http://opus.kobv.de/ubp/volltexte/2009/3225/.

Full text
Abstract:
Variation in dative resumption among and within Alemannic varieties of German strongly favors an Evaluator component that makes use of optimality-theoretic evaluation rather than filters as in the Minimalist Program (MP). At the same time, the variation is restricted to realizational requirements. This supports a model of syntax like the Derivations and Evaluations framework (Broekhuis 2008) that combines a restrictive MP-style Generator with an Evaluator that includes ranked violable (interface) constraints.
APA, Harvard, Vancouver, ISO, and other styles
18

Gholami, Ghadikolaei Iraj. "Data analysis of continuous gravitational waves." Phd thesis, Universität Potsdam, 2007. http://opus.kobv.de/ubp/volltexte/2008/1880/.

Full text
Abstract:
This thesis describes two main projects; the first one is the optimization of a hierarchical search strategy to search for unknown pulsars. This project is divided into two parts; the first part (and the main part) is the semi-coherent hierarchical optimization strategy. The second part is a coherent hierarchical optimization strategy which can be used in a project like Einstein@Home. In both strategies we have found that the 3-stages search is the optimum strategy to search for unknown pulsars. For the second project we have developed a computer software for a coherent Multi-IFO (Interferometer Observatory) search. To validate our software, we have worked on simulated data as well as hardware injected signals of pulsars in the fourth LIGO science run (S4). While with the current sensitivity of our detectors we do not expect to detect any true Gravitational Wave signals in our data, we can still set upper limits on the strength of the gravitational waves signals. These upper limits, in fact, tell us how weak a signal strength we would detect. We have also used our software to set upper limits on the signal strength of known isolated pulsars using LIGO fifth science run (S5) data.
Diese Dissertation besteht aus zwei Projekten: Im ersten Projekt wird die Optimierung einer hierarchischen Strategie zum Auffinden von 'unbekannten' Pulsaren beschrieben. Der erste Teil besteht dabei aus einer semi-kohärenten und der zweite Teil aus einer kohärenten Optimierungsstrategie, wie sie in Projekten wie Einstein@Home verwendet werden kann. In beiden Ansätzen erwies sich eine 3-Stufensuche als optimale Suchstrategie für 'unbekannte' Pulsare. Für das zweite Projekt entwickelten wir eine Software für eine kohärente Multi-IFO (Interferometer Observatory) Suche. Zum Validieren der Software verwendeten wir sowohl simulierte Daten als auch Hardware induzierte Signale von Pulsaren aus dem vierten 'LIGO Science run' (S4). Wir erwarten nicht, mit der aktuellen Empfindlichkeit unserer Detektoren echte GW- Signale aufzunehmen, können jedoch obere Grenzen für die Stärke der Gravitationswellen-Signale bestimmen. Diese oberen Grenzen geben uns an, wie schwach ein gerade noch detektierbares Signal werden kann. Ferner benutzten wir die Software um eine obere Grenze für bekannte, isolierte Pulsare zu bestimmen, wobei wir Daten aus dem fünften 'LIGO Science run (S5) verwendeten.
APA, Harvard, Vancouver, ISO, and other styles
19

Lorey, Johannes. "What's in a query : analyzing, predicting, and managing linked data access." Phd thesis, Universität Potsdam, 2014. http://opus.kobv.de/ubp/volltexte/2014/7231/.

Full text
Abstract:
The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information.
Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird.
APA, Harvard, Vancouver, ISO, and other styles
20

Rogge-Solti, Andreas, Ronny S. Mans, der Aalst Wil M. P. van, and Mathias Weske. "Repairing event logs using stochastic process models." Universität Potsdam, 2013. http://opus.kobv.de/ubp/volltexte/2013/6679/.

Full text
Abstract:
Companies strive to improve their business processes in order to remain competitive. Process mining aims to infer meaningful insights from process-related data and attracted the attention of practitioners, tool-vendors, and researchers in recent years. Traditionally, event logs are assumed to describe the as-is situation. But this is not necessarily the case in environments where logging may be compromised due to manual logging. For example, hospital staff may need to manually enter information regarding the patient’s treatment. As a result, events or timestamps may be missing or incorrect. In this paper, we make use of process knowledge captured in process models, and provide a method to repair missing events in the logs. This way, we facilitate analysis of incomplete logs. We realize the repair by combining stochastic Petri nets, alignments, and Bayesian networks. We evaluate the results using both synthetic data and real event data from a Dutch hospital.
Unternehmen optimieren ihre Geschäftsprozesse laufend um im kompetitiven Umfeld zu bestehen. Das Ziel von Process Mining ist es, bedeutende Erkenntnisse aus prozessrelevanten Daten zu extrahieren. In den letzten Jahren sorgte Process Mining bei Experten, Werkzeugherstellern und Forschern zunehmend für Aufsehen. Traditionell wird dabei angenommen, dass Ereignisprotokolle die tatsächliche Ist-Situation widerspiegeln. Dies ist jedoch nicht unbedingt der Fall, wenn prozessrelevante Ereignisse manuell erfasst werden. Ein Beispiel hierfür findet sich im Krankenhaus, in dem das Personal Behandlungen meist manuell dokumentiert. Vergessene oder fehlerhafte Einträge in Ereignisprotokollen sind in solchen Fällen nicht auszuschließen. In diesem technischen Bericht wird eine Methode vorgestellt, die das Wissen aus Prozessmodellen und historischen Daten nutzt um fehlende Einträge in Ereignisprotokollen zu reparieren. Somit wird die Analyse unvollständiger Ereignisprotokolle erleichtert. Die Reparatur erfolgt mit einer Kombination aus stochastischen Petri Netzen, Alignments und Bayes'schen Netzen. Die Ergebnisse werden mit synthetischen Daten und echten Daten eines holländischen Krankenhauses evaluiert.
APA, Harvard, Vancouver, ISO, and other styles
21

Amour, Frédéric. "3-D modeling of shallow-water carbonate systems : a scale-dependent approach based on quantitative outcrop studies." Phd thesis, Universität Potsdam, 2013. http://opus.kobv.de/ubp/volltexte/2013/6662/.

Full text
Abstract:
The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models.
Das Modellieren von geologischen Aufschlüssen liegt der Schnittstelle zwischen zwei geo-logischen Teildisziplinen, der Sedimentologie und der geologischen Modellierung. Hierbei werden geologische Heterogenitäten untersucht und simuliert, welche im Aufschluss beobachtet wurden. Während der letzten Jahre haben sich die Werkzeuge und die Technik der Modellierung stetig weiter-entwickelt. Parallel dazu hat die Untersuchung der phanerozoischen Karbonatablagerungen ihren Fokus auf gemeinsamen Vorkommen von zufälligen Faziesverteilungen in beiden Ablagerungs-gebieten. Obwohl beide Teildisziplinen durch die Aufschlussmodellierung eigentlich verbunden sind, wurden ihre jeweiligen Vorteile in der Literatur nicht miteinander verbunden, um so eine Verbesserung ähnlicher Studien zu erreichen. Die vorliegende Studie überprüft erneut die Modellierungsstrategie, angepasst an die Simulation von Flachwasser-Karbonat-Systemen und basierend auf einer engen Beziehung zwischen Sedimentologie und Modellierung. Die vorliegende Arbeit behandelt erstmals die Evaluierung der drei am häufigsten verwendeten Algorithmen „Truncated Gaussian Simulation (TGSim)“, „Sequential Indicator Simulation (SISim)“ und „Indicator Kriging (IK)“, um sie visuell und quantitativ mit dem entsprechenden Aufschluss zu vergleichen. Die Ergebnisse zeigen, dass die Heterogenität von Karbonatgesteinen nicht komplett mit nur einem Algorithmus simuliert werden kann. Die Eigenschaften jedes einzelnen Algorithmus beinhalten Vor- und Nachteile, sodass kein Algorithmus alle Beobachtungen aus dem Aufschluss widerspiegelt. Die zwei Endglieder im Spektrum der Ablagerungsbedingungen von Karbonaten, eine flachwinklige, jurassische Karbonat-Rampe (Hoher Atlas, Marokko) und eine isolierte, triassische Plattform (Dolomiten, Italien), wurden untersucht, um einen kompletten Überblick über die verschiedenen Heterogenitäten in Flachwasser-Karbonat- Systemen zu erhalten. Sedimentologische und statistische Analysen wurden für die verschiedenen Typen, Morphologien, Verteilungen und Assoziationen von Karbonatablagerungen durchgeführt und mit paläogeografischen Rekonstruktionen kombiniert und zeigen ähnliche Ergebnisse. Im Beckenmaßstab zeigen die Faziesassoziationen, bestehend aus Fazieszonen mit ähnlichen Ablagerungsbedingungen, einen linearen und kontinuierlichen Übergang zwischen den einzelnen Ablagerungsbereichen. Im Gegensatz dazu zeigt für einzelne Lithofaziestypen im Maßstab einzelner Schichten eine mosaikartige Verteilung, bestehend aus einer Anordnung räumlich unabhängiger Lithofazieszonen entlang des Ablagerungsprofils. Das Ansteigen der räumlichen Unordnung von der beckenweiten Ablagerung zur Ablagerung einzelner Schichten resultiert aus dem Einfluss autozyklischer Faktoren bei der Ablagerung von Karbonaten. Die Skalenabhängigkeit von Karbonat-Heterogenität ist mit der Auswertung der Algorithmen verknüpft um eine Modellierungsstrategie zu etablieren, welche sowohl die sedimentären Charakteristiken des Aufschlusses als auch die Modellierfähigkeit berücksichtigt. Für die Modellierung der Ablagerungssequenzen wurde ein flächenbasierter Ansatz verwendet. Die Faziesassoziationen wurden durch die Benutzung des TGSim-Algorithmus simuliert, um die regulären Trends zwischen den einzelnen Ablagerungsgebieten zu erhalten. Im Bereich der verschiedenen Lithofazien wurde mit dem SISim-Algorithmus, ein voll stochastischer Ansatz angewendet, um die mosaikartige Verteilung der Lithofazies-Typen zu simulieren. Dieser neue Arbeitsablauf wurde konzipiert, um die Simulierung von Karbonaten auf Basis der einzelnen Heterogenitäten in verschiedenen Größenordnungen zu verbessern. Im Gegensatz zu den in der Literatur angewendeten Simulationsmethoden berücksichtigt diese Studie, dass eine einzelne Modellierungstechnik die natürlichen Ablagerungsmuster und Variabilität von Karbonaten wahrscheinlich nicht korrekt abbildet. Die Einführung verschiedener Techniken, angepasst auf die verschiedenen Ebenen der stratigrafischen Hierarchie, liefert die notwendige Flexibilität um Karbonatsysteme korrekt zu modellieren. Eine enge Verknüpfung zwischen den Fortschritten auf dem Gebieten der Sedimentologie und dem Gebiet der modellierenden Geowissenschaften sollte weiterhin bestehen, um auch zukünftig bei der Simulation von geologischen Gelände-Aufschlüssen eine Verbesserung der 3-D-Modellierung zu erreichen.
APA, Harvard, Vancouver, ISO, and other styles
22

Plissart, Gaëlle. "La chaîne varisque dans les Carpates Méridionales et les Balkans Occidentaux: études pétrostructurales des massifs d'Almaj (Roumanie), de Deli Jovan (Serbie) et de la Stara Planina Occidentale (Bulgarie)." Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209611.

Full text
Abstract:
Ce travail retrace l’évolution varisque des Massifs d’Almǎj (Roumanie), de Deli Jovan (Serbie) et de la Stara Planina Occidentale (Bulgarie), à travers une étude pétrostructurale effectuée sur les différentes unités lithologiques de la Nappe alpine du Danubien supérieur. Cette nappe possède la particularité de contenir un marqueur de convergence de toute première importance sous la forme de 4 massifs ophiolitiques démembrés lors de l’orogenèse alpine :Tisoviţa Iuţi (TI, Roumanie), Deli Jovan (DJ, Serbie), Zaglavak (Z, Serbie) et Tcherni Vrah (TV, Bulgarie). Les études pétrologiques de terrain effectuées dans ces trois pays ont permis de confirmer la continuité entre ces 4 massifs, qui, séparément, comprennent chacun une portion de croûte océanique différente (TI :section mantélique et cumulats inférieurs, DJ :cumulats inférieurs et supérieurs, Z :cumulats supérieurs, TV :cumulats supérieurs et section effusive), mais considérés ensemble, forment une pile ophiolitique classique complète. De nouvelles datations par la méthode 147Sm-143Nd confirment un âge d’accrétion pour cette croûte océanique au Dévonien inférieur (~ 400 Ma). Cependant, l’essentiel de ce mémoire concerne les Monts Almǎj, notamment les roches encaissantes du massif de Tisoviţa Iuţi. La partie sud de ce massif ophiolitique représente la section inférieure d’une croûte océanique classique, alors que sa partie orientale est caractérisée par des roches de la croûte océanique supérieure, fortement déformées et transformées (métagabbros à zoïsite et fuchsite). Ces roches font partie de la Zone Mylonitique de Corbu (CMZ), qui comporte également des métasédiments à Gt ± St ± And et des serpentinites. Les conditions PT de formation de ces métagabbros, datés à 380-360 Ma par la méthode 40Ar-39Ar, ont été estimées à des températures comprises entre 450°C et 300°C. Leur contexte de formation peut être assimilé à une semelle ophiolitique ‘froide’, développée lors d’une obduction intra-océanique initiée probablement le long d’une faille transformante. Si le pic de métamorphisme des roches de Corbu a été estimé à 585°C/ 5.5 kbar, leur exhumation pourrait s’effectuer au sein d’un anticlinal en régime transpressif sénestre, en relation avec la formation de la CMZ, interprétée comme une ancienne zone plissée qui évolue en zone de cisaillement sénestre. Au Carbonifère, le granite syntectonique de Cherbelezu se met en place le long de la CMZ et enregistre les dernières phases de cette déformation lors de son refroidissement. Les études préliminaires sur les roches encaissantes des massifs ophiolitiques en Serbie et Bulgarie permettent de préciser une vergence d’obduction du lambeau ophiolitique vers le paléo-NW et d’établir un modèle de reconstitution paléogéodynamique au Varisque pour l’ensemble de la région étudiée./ This study provides new information on the Variscan evolution of the Almǎj Mountains (Romania), Deli Jovan Massif (Serbia) and Western Stara Planina (Bulgaria), throughout a petrostructural investigation conducted on the various lithological units of the Upper Danubian Alpine Nappe. This nappe displays an important convergence tectonic marker in the form of four ophiolitic massifs dismembered during the Alpine orogeny: Tisoviţa Iuţi (TI, Romania), Deli Jovan (DJ, Serbia), Zaglavak (Z, Serbia) and Tcherni Vrah (TV, Bulgaria). Our petrological studies in these three countries have confirmed the continuity between these four massifs, each of which showing, separately, a different portion of the oceanic crust (TI: mantle section and lower cumulates, DJ: lower and upper cumulates, Z: upper cumulates, TV: upper cumulates and effusive section), but taken together, forming a complete classical ophiolitic pile. New dating using the 147Sm-143Nd method has confirmed an accretion age for this oceanic crust at around 400 Ma (Early Devonian). However, the main part of this study has been focused in the Almǎj Mountains, particularly the Tisoviţa Iuţi ophiolitic massif and its enclosing rocks. The Southern part of this ophiolitic massif represents the lower section of a classical oceanic crust whereas its eastern part is characterized by upper crustal oceanic rocks that are highly deformed and transformed (zoïsite and fuchsite-bearing metagabbros). These rocks belong to the Corbu Mylonitic zone (CMZ), which also comprises Gt ± St ± And metasediments and serpentinites. Temperature estimates for the formation of the metagabbros are bracketed between 450°C and 300°C and these rocks have been dated at 380-360 Ma using the 40Ar-39Ar method on fuchiste. The geodynamic context for their formation can be viewed as a ‘cold’ ophiolitic sole, developed during an intra-oceanic obduction probably initiated along transform fault. If the metamorphic peak for the Corbu rocks has been estimated at 585°C/5.5kbar, their rapid exhumation could be realized via an anticline under a transpressive sinistral regime, connected with the formation of the CMZ that is interpreted as an ancient fold zone evolving in a sinistral shear zone. Finally, the Carboniferous syntectonic Cherbelezu granite intrudes along the CMZ and records the final stages of this deformation during its cooling. Preliminary investigations on the enclosing rocks of the ophiolitic massifs in Serbia and Bulgaria allow us to define a top to the NW obduction vergence for the ophiolite and to propose a paleogeodynamic reconstitution model for the Carpathian/Balkans terrains in the Variscan times.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
23

Bauckmann, Jana, Ziawasch Abedjan, Ulf Leser, Heiko Müller, and Felix Naumann. "Covering or complete? : Discovering conditional inclusion dependencies." Universität Potsdam, 2012. http://opus.kobv.de/ubp/volltexte/2012/6208/.

Full text
Abstract:
Data dependencies, or integrity constraints, are used to improve the quality of a database schema, to optimize queries, and to ensure consistency in a database. In the last years conditional dependencies have been introduced to analyze and improve data quality. In short, a conditional dependency is a dependency with a limited scope defined by conditions over one or more attributes. Only the matching part of the instance must adhere to the dependency. In this paper we focus on conditional inclusion dependencies (CINDs). We generalize the definition of CINDs, distinguishing covering and completeness conditions. We present a new use case for such CINDs showing their value for solving complex data quality tasks. Further, we define quality measures for conditions inspired by precision and recall. We propose efficient algorithms that identify covering and completeness conditions conforming to given quality thresholds. Our algorithms choose not only the condition values but also the condition attributes automatically. Finally, we show that our approach efficiently provides meaningful and helpful results for our use case.
Datenabhängigkeiten (wie zum Beispiel Integritätsbedingungen), werden verwendet, um die Qualität eines Datenbankschemas zu erhöhen, um Anfragen zu optimieren und um Konsistenz in einer Datenbank sicherzustellen. In den letzten Jahren wurden bedingte Abhängigkeiten (conditional dependencies) vorgestellt, die die Qualität von Daten analysieren und verbessern sollen. Eine bedingte Abhängigkeit ist eine Abhängigkeit mit begrenztem Gültigkeitsbereich, der über Bedingungen auf einem oder mehreren Attributen definiert wird. In diesem Bericht betrachten wir bedingte Inklusionsabhängigkeiten (conditional inclusion dependencies; CINDs). Wir generalisieren die Definition von CINDs anhand der Unterscheidung von überdeckenden (covering) und vollständigen (completeness) Bedingungen. Wir stellen einen Anwendungsfall für solche CINDs vor, der den Nutzen von CINDs bei der Lösung komplexer Datenqualitätsprobleme aufzeigt. Darüber hinaus definieren wir Qualitätsmaße für Bedingungen basierend auf Sensitivität und Genauigkeit. Wir stellen effiziente Algorithmen vor, die überdeckende und vollständige Bedingungen innerhalb vorgegebener Schwellwerte finden. Unsere Algorithmen wählen nicht nur die Werte der Bedingungen, sondern finden auch die Bedingungsattribute automatisch. Abschließend zeigen wir, dass unser Ansatz effizient sinnvolle und hilfreiche Ergebnisse für den vorgestellten Anwendungsfall liefert.
APA, Harvard, Vancouver, ISO, and other styles
24

Rogge-Solti, Andreas. "Probabilistic Estimation of Unobserved Process Events." Phd thesis, Universität Potsdam, 2014. http://opus.kobv.de/ubp/volltexte/2014/7042/.

Full text
Abstract:
Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance.
Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt.
APA, Harvard, Vancouver, ISO, and other styles
25

Pfeiler, Stephan. "Die Evaluation von Daten aus erster und zweiter Hand im naturwissenschaftlichen Unterricht." Doctoral thesis, Humboldt-Universität zu Berlin, 2019. http://dx.doi.org/10.18452/19828.

Full text
Abstract:
Im naturwissenschaftlichen Unterricht werden Daten z.B. in Erkenntnisgewinnungsprozessen eingesetzt und somit ist hier auch die Evaluation von Daten wichtig. Es können Daten aus erster und zweiter Hand unterschieden werden, wobei die Unterscheidung auf Basis des Autoren und der Beteiligung an der Datenerhebung geschieht. Im Physikunterricht werden Schüler*innen mit Daten aus unterschiedlichen Quellen konfrontiert. Es wird angenommen, dass die Evaluation von Daten durch Schüler*innen als Glaubwürdigkeitsbewertung dieser Daten verstanden werden kann. Ergänzend zur Theorie wurde in einer Studie untersucht, welche Kriterien Schüler*innen bei der Evaluation unterschiedlicher Datensätze verwenden, die sich nur durch den Autor unterschieden. Dafür wurden 17 Interviews mit Schüler*innen durchgeführt (13-16 Jahre). Eine qualitative Inhaltsanalyse führte zu einem Codesystem mit vier Codes und diversen Subcodes. Die Codes bezogen sich auf die Themen Eigenschaften des Experiments, Eigenschaften von Autoren, Eigenschaften der Daten und Prüfen/Abgleichen. Unterschiede in der Verwendung der Kriterien für verschiedene Datentypen, wurden in einer zweiten Studie überprüft. Dazu wurden 42 Interviews mit schüler*innen (14-16 Jahre) durchgeführt. Alle Probanden erzeugten selbstständig physikalische Daten und wählten Hypothesen über den Ausgang des Experiments aus. Im Anschluss wurden sie mit einem von drei verschiedenen Datensätzen konfrontiert: ihren eigenen Daten, den Daten eines anderen Schülers oder Daten eines Lehrers. Das Codesystem war die Grundlage einer quantitativen Inhaltsanalyse dieser Interviews. Diese erlaubte es, Unterschiede zwischen den Versuchsgruppen zu finden. Es ergaben sich keine Unterschiede für das Hypothesenwechselverhalten, die Verwendung von Kriterien für die Glaubwürdigkeitsbewertung oder das Rating der Wichtigkeit der Codes zwischen den Versuchsgruppen. Folgerungen für den Unterricht und die Unterscheidung der Datentypen werden erläutert.
In science education data is used in the process of gaining knowledge and it is therefore important to evaluate the data. First- and second-hand-data can be differentiated, whereby the distinction is based on the authorship and the involvement in the data acquisition. In physics education students are regularly confronted with data from different sources. It is assumed that the evaluation of data by students can be understood as the evaluation of the datas credibility. To complement a theoretical model, an interview study was conducted to find out which criteria for the evaluation of the credibility of data are used by students when evaluating different types of data. 17 students (13-16 years) were interviewed. A qualitative content analysis yielded a systems of four different codes and several subcodes. These codes where representations of statements that dealt with properties of the experiment, properties of the author, properties of the data, and testing and comparing. A second study was conducted to test if there are differences in the use of those criteria when students are confronted with different types of data. 42 Interviews with students (14-16 years) were conducted. All subjects acquired a set of first-hand data in an experiment and where asked to choose between 3 hypotheses about the outcome. Afterwards they were confronted with three different sets of data: their own data, another student's set of data, and a teacher's set of data. The system of codes from the previous study was used as the basis for a quantitative content analyses of these interviews. This analysis made it possible to find differences between the experimental groups. No differences were found for the change of the hypothesis, the use of criteria for the evaluation of credibility or the rating of importance of the codes. Implications for education and the differentiation of types of data are discussed.
APA, Harvard, Vancouver, ISO, and other styles
26

Ludwig, Tobias. "Argumentieren beim Experimentieren in der Physik - Die Bedeutung personaler und situationaler Faktoren." Doctoral thesis, Humboldt-Universität zu Berlin, 2017. http://dx.doi.org/10.18452/18408.

Full text
Abstract:
Argumentieren ist zentraler Bestandteil naturwissenschaftlicher Erkenntnisgewinnung. Dennoch gibt es bisher nur wenige Arbeiten, die untersuchen, wie Lernende auf der Grundlage selbstständig durchgeführter Experimente für bzw. gegen eine eigene Hypothese argumentieren. Vor diesem Hintergrund untersucht diese Arbeit, welchen Einfluss personale Faktoren (u. a. das Fachwissen und das situationale Interesse) und die Art der Lernumgebung (Realexperiment vs. Computersimulation) darauf nehmen, welche Typen von Argumenten verwendet werden. Ferner wird in dieser Arbeit untersucht, inwiefern die Verwendung dieser Argumentkategorien den Lernerfolg beeinflusst. Auf der Basis von Interviewdaten konnten zunächst für die vorgebrachten Argumente beim Wechseln bzw. Beibehalten eigener Hypothesen beim Experimentieren zehn Kategorien identifiziert werden (u. a. „Intuition“, „Expertenwissen“, „Messunsicherheiten“ sowie „Daten als Evidenz“). Zur quantitativen Erfassung wurde dann für die vier o. g. Argumentkategorien ein Likert-skaliertes Instrument entwickelt. Die aufgeführten Fragestellungen wurden schließlich in einer randomisierten Studie mit 938 Schülerinnen und Schülern untersucht. Bei der Untersuchung des Einflusses personaler Faktoren zeigt sich u. a., dass Lernende in einer Argumentation umso eher Daten als Evidenz heranziehen, je höher das fachliche Vorwissen ist. Die Verwendung dieser Argumentkategorie erhöht wiederum die Wahrscheinlichkeit dafür, dass Lernende nach dem Experimentieren eine fachlich adäquate Hypothese aufstellen. Dies impliziert, dass der Umgang mit experimentellen Daten und Beobachtungen im Physikunterricht stärker als bisher berücksichtigt werden muss, z. B. durch eine explizitere Förderung von Fähigkeiten zum Umgang mit experimentellen Daten. Bis auf einen gut erklärbaren Unterschied können grundlegende Unterschiede beim Experimentieren zwischen Gruppen, die mit einem Real- bzw. Computerexperiment gearbeitet haben, nicht belegt werden.
Argumentation from data and evidence evaluation is widely seen as a scientific core practice. One approach to engage students in a meaningful argumentation practice is to provide lab work situations where they can construct hypotheses on the basis of their own prior knowledge and consequently evaluate these hypotheses in light of self-collected data. However, until recently, only little research has analyzed students' argumentation from data. Against this backdrop this research seeks to identify: a) the influences of personal factors (such as content knowledge and situational interest); b) the type of learning environment as a situational factor (real vs. virtual experiment) on the use of different categories of argument (such as Intuition, Appeal to Authority, Measurement Uncertainties (explicit) and Data as Evidence); c) the influence of argumentation on learning outcomes through experimentation in school labs. First, an interview-study was used to identify the different types of arguments used by students. Analyses focused on the nature of justification in argument and revealed ten different categories students use while arguing for or against hypotheses. As a next step, four out of ten categories were operationalized by means of a Likert-scaled instrument to assess the use of different types of argument in a valid and reliable manner. The findings from a randomized study among 938 secondary school students in a lab work setting indicate, among others, that content knowledge is positively related to the use of data as evidence. Again, the use of data as evidence increases the probability of stating a correct hypothesis after conducting the experiment. This implies that the ability to deal with data and measurement uncertainties should be better fostered in physics classes. Besides one explicable difference, no evidence was found, which supports the hypothesis that students' argumentation would differ while working with hands-on materials vs. computer simulations.
APA, Harvard, Vancouver, ISO, and other styles
27

Munir, Rana Faisal. "Storage format selection and optimization for materialized intermediate results in data-intensive flows." Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/668476.

Full text
Abstract:
Modern organizations produce and collect large volumes of data, that need to be processed repeatedly and quickly for gaining business insights. For such processing, typically, Data-intensive Flows (DIFs) are deployed on distributed processing frameworks. The DIFs of different users have many computation overlaps (i.e., parts of the processing are duplicated), thus wasting computational resources and increasing the overall cost. The output of these computation overlaps (known as intermediate results) can be materialized for reuse, which helps in reducing the cost and saves computational resources if properly done. Furthermore, the way such outputs are materialized must be considered, as different storage layouts (i.e., horizontal, vertical, and hybrid) can be used to reduce the I/O cost. In this PhD work, we first propose a novel approach for automatically materializing the intermediate results of DIFs through a multi-objective optimization method, which can tackle multiple and conflicting quality metrics. Next, we study the behavior of different operators of DIFs that are the first to process the loaded materialized results. Based on this study, we devise a rule-based approach, that decides the storage layout for materialized results based on the subsequent operation types. Despite improving the cost in general, the heuristic rules do not consider the amount of data read while making the choice, which could lead to a wrong decision. Thus, we design a cost model that is capable of finding the right storage layout for every scenario. The cost model uses data and workload characteristics to estimate the I/O cost of a materialized intermediate results with different storage layouts and chooses the one which has minimum cost. The results show that storage layouts help to reduce the loading time of materialized results and overall, they improve the performance of DIFs. The thesis also focuses on the optimization of the configurable parameters of hybrid layouts. We propose ATUN-HL (Auto TUNing Hybrid Layouts), which based on the same cost model and given the workload and characteristics of data, finds the optimal values for configurable parameters in hybrid layouts (i.e., Parquet). Finally, the thesis also studies the impact of parallelism in DIFs and hybrid layouts. Our proposed cost model helps to devise an approach for fine-tuning the parallelism by deciding the number of tasks and machines to process the data. Thus, the cost model proposed in this thesis, enables in choosing the best possible storage layout for materialized intermediate results, tuning the configurable parameters of hybrid layouts, and estimating the number of tasks and machines for the execution of DIFs.
Las organizaciones producen y recopilan grandes volúmenes de datos, que deben procesarse de forma repetitiva y rápida para obtener información relevante para la empresa. Para tal procesamiento, por lo general, se emplean flujos intensivos de datos (DIFs por sussiglas en inglés) en entornos de procesamiento distribuido. Los DIFs de diferentes usuarios tienen elementos comunes (es decir, se duplican partes del procesamiento, lo que desperdicia recursos computacionales y aumenta el coste en general). Los resultados intermedios de varios DIFs pueden pues coincidir y se pueden por tanto materializar para facilitar su reutilización, lo que ayuda a reducir el coste y ahorrar recursos si se realiza correctamente. Además, la forma en qué se materializan dichos resultados debe ser considerada. Por ejemplo, diferentes tipos de diseño lógico de los datos (es decir, horizontal, vertical o híbrido) se pueden utilizar para reducir el coste de E/S. En esta tesis doctoral, primero proponemos un enfoque novedoso para materializar automáticamente los resultados intermedios de los DIFs a través de un método de optimización multi-objetivo, que puede considerar múltiples y contradictorias métricas de calidad. A continuación, estudiamos el comportamiento de diferentes operadores de DIF que acceden directamente a los resultados materializados. Sobre la base de este estudio, ideamos un enfoque basado en reglas, que decide el diseño del almacenamiento para los resultados materializados en función de los tipos de operaciones que los utilizan directamente. A pesar de mejorar el coste en general, las reglas heurísticas no consideran estadísticas sobre la cantidad de datos leídos al hacer la elección, lo que podría llevar a una decisión errónea. Consecuentemente, diseñamos un modelo de costos que es capaz de encontrar el diseño de almacenamiento adecuado para cada escenario dependiendo de las características de los datos almacenados. El modelo de costes usa estadísticas y características de acceso para estimar el coste de E/S de un resultado intervii medio materializado con diferentes diseños de almacenamiento y elige el de menor coste. Los resultados muestran que los diseños de almacenamiento ayudan a reducir el tiempo de carga de los resultados materializados y, en general, mejoran el rendimiento de los DIF. La tesis también presta atención a la optimización de los parámetros configurables de diseños híbridos. Proponemos así ATUN-HL (Auto TUNing Hybrid Layouts), que, basado en el mismo modelo de costes, las características de los datos y el tipo de acceso que se está haciendo, encuentra los valores óptimos para los parámetros de configuración en disponibles Parquet (una implementación de diseños híbridos para Hadoop Distributed File System). Finalmente, esta tesis estudia el impacto del paralelismo en DIF y diseños híbridos. El modelo de coste propuesto ayuda a idear un enfoque para ajustar el paralelismo al decidir la cantidad de tareas y máquinas para procesar los datos. En resumen, el modelo de costes propuesto permite elegir el mejor diseño de almacenamiento posible para los resultados intermedios materializados, ajustar los parámetros configurables de diseños híbridos y estimar el número de tareas y máquinas para la ejecución de DIF.
Moderne Unternehmen produzieren und sammeln große Datenmengen, die wiederholt und schnell verarbeitet werden müssen, um geschäftliche Erkenntnisse zu gewinnen. Für die Verarbeitung dieser Daten werden typischerweise Datenintensive Prozesse (DIFs) auf verteilten Systemen wie z.B. MapReduce bereitgestellt. Dabei ist festzustellen, dass die DIFs verschiedener Nutzer sich in großen Teilen überschneiden, wodurch viel Arbeit mehrfach geleistet, Ressourcen verschwendet und damit die Gesamtkosten erhöht werden. Um diesen Effekt entgegenzuwirken, können die Zwischenergebnisse der DIFs für spätere Wiederverwendungen materialisiert werden. Hierbei müssen vor allem die unterschiedlichen Speicherlayouts (horizontal, vertikal und hybrid) berücksichtigt werden. In dieser Doktorarbeit wird ein neuartiger Ansatz zur automatischen Materialisierung der Zwischenergebnisse von DIFs durch eine mehrkriterielle Optimierungsmethode vorgeschlagen, der in der Lage ist widersprüchliche Qualitätsmetriken zu behandeln. Des Weiteren wird untersucht die Wechselwirkung zwischen verschiedenen Operatortypen und unterschiedlichen Speicherlayouts untersucht. Basierend auf dieser Untersuchung wird ein regelbasierter Ansatz vorgeschlagen, der das Speicherlayout für materialisierte Ergebnisse, basierend auf den nachfolgenden Operationstypen, festlegt. Obwohl sich die Gesamtkosten für die Ausführung der DIFs im Allgemeinen verbessern, ist der heuristische Ansatz nicht in der Lage die gelesene Datenmenge bei der Auswahl des Speicherlayouts zu berücksichtigen. Dies kann in einigen Fällen zu falschen Entscheidung führen. Aus diesem Grund wird ein Kostenmodell entwickelt, mit dem für jedes Szenario das richtige Speicherlayout gefunden werden kann. Das Kostenmodell schätzt anhand von Daten und Auslastungsmerkmalen die E/A-Kosten eines materialisierten Zwischenergebnisses mit unterschiedlichen Speicherlayouts und wählt das kostenminimale aus. Die Ergebnisse zeigen, dass Speicherlayouts die Ladezeit materialisierter Ergebnisse verkürzen und insgesamt die Leistung von DIFs verbessern. Die Arbeit befasst sich auch mit der Optimierung der konfigurierbaren Parameter von hybriden Layouts. Konkret wird der sogenannte ATUN-HLAnsatz (Auto TUNing Hybrid Layouts) entwickelt, der auf der Grundlage des gleichen Kostenmodells und unter Berücksichtigung der Auslastung und der Merkmale der Daten die optimalen Werte für konfigurierbare Parameter in Parquet, d.h. eine Implementierung von hybrider Layouts. Schließlich werden in dieser Arbeit auch die Auswirkungen von Parallelität in DIFs und hybriden Layouts untersucht. Dazu wird ein Ansatz entwickelt, der in der Lage ist die Anzahl der Aufgaben und dafür notwendigen Maschinen automatisch zu bestimmen. Zusammengefasst lässt sich festhalten, dass das in dieser Arbeit vorgeschlagene Kostenmodell es ermöglicht, das bestmögliche Speicherlayout für materialisierte Zwischenergebnisse zu ermitteln, die konfigurierbaren Parameter hybrider Layouts festzulegen und die Anzahl der Aufgaben und Maschinen für die Ausführung von DIFs zu schätzen
APA, Harvard, Vancouver, ISO, and other styles
28

Botha, Marek. "Vliv nových médií na Sex Dating." Master's thesis, 2015. http://www.nusl.cz/ntk/nusl-350823.

Full text
Abstract:
This thesis is about what it feels like to connect, or fail, during digital or face-to-face interaction. This study aims to investigate one of the types of social interaction - sex dating and examines the role and impact of location-based dating applications in current form. The practical part is based on qualitative research method in form of in-depth interview with 18 active users. It compares experience of heterosexual and homosexual users with this non-anonymous digital environment integrate individuals into a fluid virtual space. Powered by TCPDF (www.tcpdf.org)
APA, Harvard, Vancouver, ISO, and other styles
29

Veltri, Fiore, Luigi Palopoli, Salvatore Marano, and Rango Floriano De. "UWB communication and Networking:A new channel modelling and Interference based routing for distribured systems." Thesis, 2014. http://hdl.handle.net/10955/393.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Velasquez, Gabriela Elizabeth. "Loss to follow-up among participants in the real talk study: a brief motivational interview intervention to reduce teen dating violence perpetration in Boston." Thesis, 2016. https://hdl.handle.net/2144/17040.

Full text
Abstract:
Loss to follow-up (LTF) is an important issue that can affect the validity of longitudinal studies. Further, LTF among adolescent study participants may be predicted by variables such as substance use, educational attainment, and demographic information. The purpose of this study was to determine if alcohol or marijuana use, high school completion, or demographic information was correlated with LTF among adolescent participants in the Real Talk Study. The Real Talk study is a randomized control trial that employs a brief motivational interview intervention in a clinical setting to reduce perpetration of teen dating violence (TDV) in Boston. Current participants of the Real Talk study who were eligible for follow up comprised the study sample (N=127). Baseline characteristics on age, gender, race/ethnicity, high school completion, alcohol use, and marijuana use were analyzed using Pearson’s Chi Square, and the level of significance set to p < 0.10. A post-hoc analysis was conducted on frequency of alcohol use using Pearson’s Chi Square. Of the total sample, 13% were LTF (n=17). The results of the analyses indicated that there was a statistically significant difference between those LTF and those retained for gender and drinking 6 or more drinks of alcohol per occasion. Females were more likely to be LTF than males (p<0.10), and those participants who responded “never” or “less than monthly” to the question, “how many times do you drink 6 or more drinks per occasion?” were more likely to be retained, or less likely to be LTF (p<0.10) than those who responded differently. While some of the results were consistent with the literature, it is also possible that the follow-up procedure for Real Talk ensured that there were minimal differences in LTF.
APA, Harvard, Vancouver, ISO, and other styles
31

Gordon, Shanlea. "FEAR AND LOATHING IN THE HOOKUP CULTURE: A STUDY OF FEMALE ENGAGEMENT IN NON-RELATIONAL SEX ON A UNIVERSITY CAMPUS." Thesis, 2013. http://hdl.handle.net/1974/8136.

Full text
Abstract:
Recent empirical evidence suggests that we have entered a new period of courtship known as the hookup era. Contemporary research which explores hooking up has confirmed the prevalence of this dating script, particularly within post-secondary institutions. The relevant literature has focused on a variety of important issues including the conceptual meaning of hooking up and the identification of potential correlates and consequences of these behaviours. Despite this increase in scholarly interest, several problems remain unaddressed. Principal among these is the way(s) in which young women mediate the self-perceived risks involved in the sexual exchange known as the hookup, so as to facilitate their participation in this culture. The current paper examines the controversy that is female hookup participation by investigating the risks – and subsequent negotiation of these risks – which women face in the hookup culture. Specifically, this paper makes use of detailed qualitative data gathered from a sample of female undergraduate students at a medium-sized Canadian university, in order to uncover the social processes by which female proponents of the hookup culture account for their actions to themselves and to others, in this the seemingly risky courtship script.
Thesis (Master, Sociology) -- Queen's University, 2013-07-31 19:46:46.027
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography