Auswahl der wissenschaftlichen Literatur zum Thema „Daten-Matching“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Daten-Matching" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Daten-Matching"

1

Fauser, David, Martin Vogel und Matthias Bethge. „Medizinisch-beruflich orientierte Rehabilitation bei Rehabilitanden mit muskuloskelettalen Erkrankungen: eine Propensity-Score-Analyse“. Die Rehabilitation 59, Nr. 06 (06.04.2020): 332–40. http://dx.doi.org/10.1055/a-1135-0753.

Der volle Inhalt der Quelle
Annotation:
Zusammenfassung Ziel der Studie Die medizinisch-beruflich orientierte Rehabilitation ist ein multimodales interdisziplinär durchgeführtes Programm, das Diskrepanzen von arbeitsplatzbezogenen Fähigkeiten und Anforderungen zu verringern sucht, um berufliche Teilhabechancen von Personen mit ungünstiger Erwerbsprognose zu verbessern. Die Studie untersuchte die Teilhabeeffekte eines in der regulären Versorgung implementierten medizinisch-beruflich orientierten Rehabilitationsprogramms im Vergleich zur herkömmlichen medizinischen Rehabilitation bei Rehabilitanden mit Muskel-Skelett-Erkrankungen. Methodik Die Daten wurden 2014 und 2015 erhoben und anhand einer As-treated-Analyse ausgewertet. Mittels Propensity-Score-Matching wurden die Ergebnisse von Teilnehmenden einer medizinische-beruflich orientierten Rehabilitation (Interventionsgruppe, IG) mit denen von vergleichbaren Teilnehmenden einer herkömmlichen medizinischen Rehabilitation (Kontrollgruppe, KG) verglichen. Primäres Zielkriterium war die Rate sozialversicherungspflichtiger Beschäftigung ein Jahr nach Rehabilitationsende. Die Behandlungseffekte wurden mit logistischen Modellen überprüft und absolute Risikodifferenzen (ARR) berechnet. Ergebnisse Ein Jahr nach Rehabilitationsende wurden die Daten von 312 Rehabilitanden analysiert (156 in der IG). Mittels Propensity-Score-Matching konnten Stichproben mit balancierten Stichprobenmerkmalen generiert werden. Der Anteil sozialversicherungspflichtig beschäftigter Rehabilitanden in der IG war um rund 11 Prozentpunkte höher als in der KG (ARR=0,11; 95% KI: 0,02–0,20; p=0,020). Schlussfolgerung Die medizinisch-beruflich orientierte Rehabilitation führt im Vergleich zur herkömmlichen medizinischen Rehabilitation zu deutlich höheren Beschäftigungsraten nach einem Jahr.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Sacchi, Stefan, und Thomas Meyer. „Übergangslösungen beim Eintritt in die Schweizer Berufsbildung: Brückenschlag oder Sackgasse?“ Swiss Journal of Sociology 42, Nr. 1 (01.03.2016): 8–40. http://dx.doi.org/10.1515/sjs-2016-0002.

Der volle Inhalt der Quelle
Annotation:
AbstractAm Übergang in nachobligatorische Ausbildungsgänge durchlaufen viele Jugendliche in der Schweiz eine sogenannte Übergangslösung oder ein Brückenangebot wie z. B. ein zehntes Schuljahr. Wir beleuchten in diesem Beitrag zum einen, wie schulische, individuelle, familiäre und systemische Kontextfaktoren den Übertritt in solche Brückenangebote beeinflussen. Zum anderen gehen wir der Frage nach, wie sich ein verzögerter Einstieg über ein Brückenangebot auf die Chance auswirkt, eine Ausbildung auf Sekundarstufe II zu beginnen bzw. abzuschliessen. Auf der Basis der TREE-Daten modellieren wir zunächst die interessierenden Übertrittsprozesse mittels einer multinomialen logistischen Regression, um dann mittels Propensity Score Matching deren Wirkung auf die nachobligatorischen Bildungschancen abzuschätzen.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Gonser, Monika. „Betriebliche Integration von Geflüchteten: Handlungsperspektiven und soziales Innovationspotential“. Zeitschrift für Flüchtlingsforschung 4, Nr. 2 (2020): 213–43. http://dx.doi.org/10.5771/2509-9485-2020-2-213.

Der volle Inhalt der Quelle
Annotation:
Der vorliegende Beitrag diskutiert den strategischen Fokus sowie die institutionellen Logiken, Strukturen und Maßnahmen der betrieblichen Integration von Geflüchteten und untersucht das soziale Innovationspotential dieses Bereichs nach Nicholls und Murdock (2012). Aufbauend auf empirischen Daten von 14 Unternehmen, die in den Jahren 2016 und 2017 Geflüchtete beschäftigten, sowie einer NRO, bietet die Studie einen Überblick über relevante Motivationen, Ansätze und Mittel betrieblicher Integration Geflüchteter in den untersuchten Fällen. Als zentrale Befunde sind günstige Vorbedingungen für soziale Innovationen bei a) neuen Formen der Kooperation zwischen Wirtschaft und Zivilgesellschaft und b) der Nutzung der Digitalisierung im Matching-Prozess zu nennen.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Damelang, Andreas, Michael Stops und Martin Abraham. „Occupations as labour market institutions. Occupational regulation and its effects on job matching and occupational closure“. Soziale Welt 69, Nr. 4 (2018): 406–26. http://dx.doi.org/10.5771/0038-6073-2018-4-406.

Der volle Inhalt der Quelle
Annotation:
Wir definieren Berufe als Institutionen, die das Bildungssystem mit dem Arbeitsmarkt koppeln und argumentieren, dass Berufe idealtypische Anforderungsprofile von Stellenangeboten darstellen. Auf dieser theoretischen Grundlage erarbeiten wir unterschiedliche Mechanismen, wie berufliche Institutionen und deren Regulierung berufliche Qualifikationen definieren und den Zugang zu Berufen und gleichzeitig Mobilität zwischen Berufen strukturieren. Das Ausmaß der beruflichen Regulierung variiert erheblich zwischen den Berufen. Darauf aufbauend analysieren wir die Auswirkungen der beruflichen Regulierung. Wir zeigen, dass die Regulierung zweiteilige Effekte hat. Erstens erhöht die berufliche Regulierung den Informationsstand sowohl für Arbeitgeber als auch für Arbeitssuchende und verringert somit die Unsicherheit im Matching-Prozess. Zweitens produziert berufliche Regulierung "closed shops", indem der Zugang zu Berufen eingeschränkt wird. Studien, die sowohl die positiven als auch die negativen Auswirkungen beruflicher Regulierungen berücksichtigen, sind bisher selten. Wir schließen diese Lücke, indem wir zwei zentrale Arbeitsmarktprozesse untersuchen: Job Matching und berufliche Schließung. Um berufliche Regulierung empirisch abzubilden, verwenden wir einen innovativen Indikator und testen unsere Hypothesen mit deutschen Daten. Die Ergebnisse zeigen, dass je stärker die berufliche Regulierung bei sonst gleichen Bedingungen ist, desto weniger aufwändig gestaltet sich der Matching-Prozess für die Vertragspartner. Im Gegensatz dazu wird der Wechsel in eine neue Beschäftigung umso unwahrscheinlicher, je stärker ein Beruf reguliert ist.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Levy, René, Felix Bühlmann und Eric Widmer. „Dual and single career couples in Switzerland: Exploring partners’ trajectories“. Journal of Family Research 19, Nr. 3 (01.12.2007): 263–89. http://dx.doi.org/10.20377/jfr-282.

Der volle Inhalt der Quelle
Annotation:
Based on retrospective data from a sample of 602 women and 621 men living in couples surveyed in Switzerland in early 1999, professional trajectories of partners are compared using the optimal matching technique in order to distinguish typical sequence models. We identify dual-career couples and distinguish them from other couples with dual- or single-employment, showing that dual-career couples proper are a rather rare phenomenon, and that mobility trajectories continue to be strongly gendered: male trajectories respond to a predominantly occupational logic, whereas female trajectories are structured by both an occupational and a familial logic. A multinomial regression analysis allows to identify some of the factors conditioning couples’ trajectory constellations. Zusammenfassung Anhand retrospektiver Daten einer Stichprobe von Anfang 1999 befragten Paaren (602 Frauen und 621 Männern) vergleichen wir die Berufsverläufe zusammenlebender Partner und ermitteln typische Verlaufsmodelle. Mittels der Optimal-Matching-Technik identifizieren wir Doppelkarrierepaare und unterscheiden sie von anderen doppel- oder einfachverdienenden Paaren. Doppelkarrierepaare erweisen sich dabei als relativ selten. Außerdem sind Mobilitätsverläufe nach wie vor stark geschlechtsspezifisch: männliche Verläufe folgen einer reinen Beschäftigungslogik, weibliche Verläufe unterliegen zugleich einer Beschäftigungs- und einer Familienlogik. Eine multinomiale Regressionsanalyse erlaubt, einige der Bedingungsfaktoren für das Vorliegen der verschiedenen Paarkonstellationen zu identifizieren.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Wiefarn, Stefan, Karel Kostev, Christian Heumann und Anja Rettelbach. „Einfluss des Disease-Management-Programms auf den HbA1c-Wert bei Typ-2-Diabetes-mellitus-Patienten: Ein retrospektiver Vergleich zwischen Disease Management Programm und Regelversorgung“. DMW - Deutsche Medizinische Wochenschrift 142, Nr. 21 (15.09.2017): e148-e155. http://dx.doi.org/10.1055/s-0043-104267.

Der volle Inhalt der Quelle
Annotation:
Zusammenfassung Hintergrund Diese retrospektive Studie hat das Ziel, den Einfluss des Disease-Management-Programms (DMP) für Typ-2-Diabetes-mellitus-Patienten (T2DM) auf den HbA1c-Wert innerhalb Deutschlands zu messen. Methoden Die Studie basiert auf retrospektiven Patientendaten aus dem Disease Analyzer Panel (IMS Health). Mittels 2:1 Propensity Score Matching wurde eine adäquate Kontrollgruppe gebildet. Nach dem Matching umfasste die Analyse 14 759 Patienten. Davon nahmen 5875 Patienten an einem DMP teil und 8884 erhielten die Regelversorgung. Auf Basis der gematchten Daten wurde der DMP-Effekt mittels unverbundenem t-Test geschätzt. Darüber hinaus erfolgte unter dem Gesichtspunkt der personalisierten Medizin die Betrachtung von Subgruppen. Ergebnisse Die Senkung des HbA1c-Wertes in der DMP-Gruppe lag bei durchschnittlich 1,0 Prozentpunkten (Baseline HbA1c = 8,1 vs. HbA1c-Endwert = 7,1), wohingegen die RV-Gruppe den HbA1c-Wert im Mittel um 0,9 Prozentpunkte senken konnte (Baseline HbA1c = 8,1 vs. HbA1c-Endwert = 7,2). Somit konnte die DMP-Gruppe eine nur um 0,1 Prozentpunkte höhere Senkung des HbA1c-Wertes erreichen [95 %-KI: 0,04 – 0,16]. Deskriptiv zeigte sich zudem, dass Patienten aus der DMP-Gruppe durchschnittlich mehr Verordnungen und HbA1c-Messungen pro Jahr aufwiesen. In der Subgruppenanalyse konnten Gruppen von Patienten identifiziert werden, welche mehr von einem DMP profitieren als andere. So können junge Patienten oder Patienten in Behandlung bei einem Diabetologen den größten Nutzen aus einem DMP ziehen. Des Weiteren hat der Baseline-HbA1c-Wert einen Einfluss auf die Höhe des DMP-Effekts. Folgerung T2DM-Patienten im DMP weisen zwar eine signifikant höhere Senkung des HbA1c-Wertes auf, jedoch ist fraglich, ob der Effekt als klinisch relevant anzusehen ist. Allerdings gibt es Gruppen von Patienten, welche mehr von einem DMP profitieren als andere. Um jedoch den Einfluss des DMPs und die Gründe für die vorhandenen Subgruppeneffekte besser zu verstehen, bedarf es weiterer Studien, welche in einem randomisierten kontrollierten Design durchgeführt werden sollten.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Wiefarn, Stefan, Karel Kostev, Christian Heumann und Anja Rettelbach. „Einfluss des Disease-Management-Programms auf den HbA1c-Wert bei Typ-2-Diabetes-mellitus-Patienten: Ein retrospektiver Vergleich zwischen Disease Management Programm und Regelversorgung“. Diabetologie und Stoffwechsel 12, Nr. 06 (Dezember 2017): 455–62. http://dx.doi.org/10.1055/s-0043-123117.

Der volle Inhalt der Quelle
Annotation:
Zusammenfassung Hintergrund Diese retrospektive Studie hat das Ziel, den Einfluss des Disease-Management-Programms (DMP) für Typ-2-Diabetes-mellitus-Patienten (T2DM) auf den HbA1c-Wert innerhalb Deutschlands zu messen. Methoden Die Studie basiert auf retrospektiven Patientendaten aus dem Disease Analyzer Panel (IMS Health). Mittels 2:1 Propensity Score Matching wurde eine adäquate Kontrollgruppe gebildet. Nach dem Matching umfasste die Analyse 14 759 Patienten. Davon nahmen 5875 Patienten an einem DMP teil und 8884 erhielten die Regelversorgung. Auf Basis der gematchten Daten wurde der DMP-Effekt mittels unverbundenem t-Test geschätzt. Darüber hinaus erfolgte unter dem Gesichtspunkt der personalisierten Medizin die Betrachtung von Subgruppen. Ergebnisse Die Senkung des HbA1c-Wertes in der DMP-Gruppe lag bei durchschnittlich 1,0 Prozentpunkten (Baseline HbA1c = 8,1 vs. HbA1c-Endwert = 7,1), wohingegen die RV-Gruppe den HbA1c-Wert im Mittel um 0,9 Prozentpunkte senken konnte (Baseline HbA1c = 8,1 vs. HbA1c-Endwert = 7,2). Somit konnte die DMP-Gruppe eine nur um 0,1 Prozentpunkte höhere Senkung des HbA1c-Wertes erreichen [95 %-KI: 0,04 – 0,16]. Deskriptiv zeigte sich zudem, dass Patienten aus der DMP-Gruppe durchschnittlich mehr Verordnungen und HbA1c-Messungen pro Jahr aufwiesen. In der Subgruppenanalyse konnten Gruppen von Patienten identifiziert werden, welche mehr von einem DMP profitieren als andere. So können junge Patienten oder Patienten in Behandlung bei einem Diabetologen den größten Nutzen aus einem DMP ziehen. Des Weiteren hat der Baseline-HbA1c-Wert einen Einfluss auf die Höhe des DMP-Effekts. Folgerung T2DM-Patienten im DMP weisen zwar eine signifikant höhere Senkung des HbA1c-Wertes auf, jedoch ist fraglich, ob der Effekt als klinisch relevant anzusehen ist. Allerdings gibt es Gruppen von Patienten, welche mehr von einem DMP profitieren als andere. Um jedoch den Einfluss des DMPs und die Gründe für die vorhandenen Subgruppeneffekte besser zu verstehen, bedarf es weiterer Studien, welche in einem randomisierten kontrollierten Design durchgeführt werden sollten.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Kratzer, André, Linda Karrer, Nikolas Dietzel, Franziska Wolff, Manuela Hess, Peter Kolominsky-Rabas und Elmar Gräßel. „Symptombelastung, Inanspruchnahme des Gesundheitssystems und Todesumstände von Menschen mit Demenz in der letzten Lebensphase: der Bayerische Demenz Survey (BayDem)“. Das Gesundheitswesen 82, Nr. 01 (20.12.2019): 50–58. http://dx.doi.org/10.1055/a-1033-7159.

Der volle Inhalt der Quelle
Annotation:
Zusammenfassung Hintergrund Demenz ist in der Regel eine lebenslimitierende Erkrankung. Dennoch fehlen derzeit evidenzbasierte Leitlinien für eine angemessene Palliativversorgung von Menschen mit Demenz (MmD). Ein Grund hierfür ist der Mangel an belastbaren empirischen Daten zu MmD in der letzten Lebensphase. Ziel dieser Untersuchung ist daher, Symptombelastung, Inanspruchnahme des Gesundheitssystems sowie Todesumstände von MmD in der letzten Lebensphase zu beschreiben. Methodik Der Bayerische Demenz Survey (BayDem) war eine multizentrische Längsschnittstudie, die in 3 Regionen Bayerns (Dachau, Erlangen, Kronach) durchgeführt wurde. Teilnehmende waren MmD nach ICD-10 sowie deren pflegende Angehörige. Die Verlaufsdaten wurden in standardisierten, persönlichen Interviews vor Ort erhoben. Es erfolgte ein 1:1-Propensity Score Matching zwischen verstorbenen und nicht verstorbenen MmD. Zur statistischen Analyse wurden McNemar-Tests sowie t-Tests für verbundene Stichproben verwendet. Ergebnisse In der vorliegenden Analyse wurden 58 im Studienzeitraum verstorbene und 58 nicht verstorbene MmD untersucht (n=116). In den meisten Fällen sind MmD zuhause (36,2%), im Krankenhaus (25,9%) oder im Alten-/Pflegeheim (19,0%) verstorben, nie im Rahmen einer Palliativversorgung. Todesursachen waren meist Komplikationen des respiratorischen Systems (13,8%), kardiovaskuläre Komplikationen (12,1%) sowie Schlaganfälle (12,1%). MmD in der letzten Lebensphase wiesen stärker ausgeprägte körperliche Komorbiditäten auf als die übrigen MmD (Charlson-Index: M=2,75 vs. M=1,80; p=0,030, Cohen’s d=0,425) und wurden dementsprechend häufiger in ein Krankenhaus eingewiesen (46,6 vs. 12,1%, p<0,001, OR=6,250) und in einer Notaufnahme (22,4 vs. 3,4%, p=0,007, OR=6,500) behandelt. Psychische und Verhaltensauffälligkeiten waren stark ausgeprägt (NPI-Wert: M=31,67 vs. M=24,77, p=0,118, Cohen’s d=0,303). Ambulante Angebote wurden jedoch selten in Anspruch genommen. Schlussfolgerungen Die Ergebnisse unterstreichen die Notwendigkeit, evidenzbasierte Leitlinien für eine angemessene, den speziellen Bedürfnissen von MmD in der letzten Lebensphase entsprechende, Palliativversorgung zu entwickeln. Die starke Ausprägung an psychischen und Verhaltensauffälligkeiten sollte dabei ebenso wie die stark ausgeprägten körperlichen Komorbiditäten berücksichtigt werden. Angesichts häufiger Krankenhausaufenthalte sollte zudem ein Fokus auf die Entwicklung fachlicher Empfehlungen für den stationären Bereich (Akutkrankenhaus, Palliativstation) gelegt werden.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Kessemeier, Franziska Maria, Markus Bassler, Franz Petermann und Axel Kobelt-Pönicke. „Therapeutische Allianz und Rehabilitationszufriedenheit von Menschen mit Migrationshintergrund in der psychosomatischen Rehabilitation – Analyse routinemäßig erhobener Daten“. Physikalische Medizin, Rehabilitationsmedizin, Kurortmedizin 29, Nr. 05 (10.07.2019): 267–74. http://dx.doi.org/10.1055/a-0862-0657.

Der volle Inhalt der Quelle
Annotation:
Zusammenfassung Ziel der Studie Die therapeutische Allianz ist ein wichtiger Wirkfaktor in der psychotherapeutischen Behandlung. Der Zusammenhang von Rehabilitationszufriedenheit und therapeutischer Allianz ist gut belegt. Arbeiten zum Einfluss des Migrationshintergrundes stehen aus. Untersucht wird, ob der Migrationsstatus Einfluss auf die therapeutische Allianz und die Rehabilitationszufriedenheit von PatientInnen der psychosomatischen Rehabilitation hat. Methodik Zunächst werden PatientInnen mit und ohne Migrationshintergrund hinsichtlich soziodemografischer Variablen und der Symptomschwere verglichen. Die gefundenen Unterschiede werden in einem Propensity Score Matching berücksichtigt. Die Patientengruppen werden vor und nach dem Matching mittels Varianzanalyse auf Unterschiede hinsichtlich ihrer Reha-Zufriedenheit und therapeutischen Allianz analysiert. Ergebnisse PatientInnen mit Migrationshintergrund waren häufiger weiblich, hatten ein niedrigeres Bildungsniveau und berichteten eine stärkere Symptomschwere. PatientInnen mit Migrationshintergrund bewerteten sowohl die Rehabilitationszufriedenheit als auch die therapeutische Allianz negativer. Die gefundenen Effekte waren jedoch sehr klein und konnten nach dem Matching nicht repliziert werden. Schlussfolgerungen Die negativere Bewertung der Rehabilitationszufriedenheit und der therapeutischen Allianz durch PatientInnen mit Migrationshintergrund ist auf ihre problematischere soziodemografische und psychosomatische Ausgangslage zurückzuführen. Werden diese Merkmale konstant gehalten, werden keine Unterschiede zwischen den Patientengruppen gefunden. Der hohe Zusammenhang von therapeutischer Allianz und Rehabilitationszufriedenheit unterstreicht die Bedeutung der therapeutischen Allianz für eine gelingende psychosomatische Rehabilitation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Daten-Matching"

1

Lorey, Johannes. „What's in a query : analyzing, predicting, and managing linked data access“. Phd thesis, Universität Potsdam, 2014. http://opus.kobv.de/ubp/volltexte/2014/7231/.

Der volle Inhalt der Quelle
Annotation:
The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information.
Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dimakopoulos, Philipp Dimitrios. „Essays in Market Design and Industrial Organization“. Doctoral thesis, Humboldt-Universität zu Berlin, 2018. http://dx.doi.org/10.18452/19133.

Der volle Inhalt der Quelle
Annotation:
Diese Dissertation besteht aus drei unabhängigen Kapiteln in den Bereichen Matching Market Design, Industrieökonomie und Wettbewerbspolitik. Kapitel 1 behandelt den Matching-Markt für juristische Referendariatsstellen in Deutschland. Wegen übermäßiger Nachfrage müssen Anwälte oft warten, bevor sie zugewiesen werden. Der aktuell verwendete Algorithmus berücksichtigt nicht die Zeitpräferenzen der Anwälte. Daher werden viele wünschenswerte Eigenschaften nicht erfüllt. Basierend auf dem matching with contracts Modell schlage ich dann einen neuen Mechanismus vor, der die Wartezeit als Vertragsterm verwendet, so dass die Mängel des gegenwärtigen Mechanismus überwunden werden können. In Kapitel 2 analysiere ich den Wettbewerb von zweiseitigen Online-Plattformen, wie sozialen Netzwerken oder Suchmaschinen. Werbetreibende zahlen Geld, um ihre Anzeigen zu platzieren, während Nutzer mit ihren privaten Daten "bezahlen", um Zugang zu der Plattform zu erhalten. Ich zeige, dass das Gleichgewichtsniveau der Datenerhebung verzerrt ist, abhängig von der Intensität des Wettbewerbs und den Targeting-Vorteilen. Weniger Wettbewerb auf jeder Marktseite führt zu mehr Datensammeln. Wenn jedoch Plattformen Geldzahlungen auf beiden Marktseiten verwenden, wird die effiziente Menge an Daten gesammelt. Kapitel 3 untersucht die dynamische Preissetzung auf Märkten für Flug- oder Reisebuchungen, auf denen Wettbewerb während einer endlichen Verkaufszeit mit einer Frist stattfindet. Unter Berücksichtigung der intertemporalen Probleme von Firmen und vorausschauenden Konsumenten hängen die Gleichgewichtspreispfade von der Anzahl der nicht verkauften Kapazitäten und der verbleibenden Verkaufszeit ab. Ich ermittle, dass mehr Voraussicht der Konsumenten die Konsumentenrente erhöht, aber die Effizienz reduziert. Ferner ist Wettbewerbspolitik besonders wertvoll, wenn die Marktkapazitäten zu hoch sind. Des Weiteren kann die ex-ante Produktion von Kapazitäten ineffizient niedrig sein.
This thesis consists of three independent chapters in the fields of matching market design, industrial organization and competition policy. Chapter 1 covers the matching market for lawyer trainee-ship positions in Germany. Because of excess demand lawyers often must wait before being allocated. The currently used algorithm does not take lawyers’ time-preferences into account. Hence, many desirable properties are not satisfied. Then, based on the matching with contacts model, I propose a new mechanism using waiting time as the contractual term, so that the shortcomings of the current mechanism can be overcome. In Chapter 2 I analyze competition of two-sided online platforms, such as social networks or search engines. Advertisers pay money to place their ads, while users “pay” with their private data to gain access to the platform. I show that the equilibrium level of data collection is distorted, depending on the competition intensity and targeting benefits. Less competition on either market side leads to more data collection. However, if platforms use monetary payments on both market sides, data collection would be efficient. Chapter 3 studies dynamic pricing as in markets for airline or travel bookings, where competition takes place throughout a finite selling time with a deadline. Considering the inter-temporal problems of firms and forward-looking consumers, the equilibrium price paths depend on the number of unsold capacities and remaining selling time. I find that more consumer foresight increases consumer surplus yet reduces efficiency. Further, competition policy is especially valuable when market capacities are excessive. Moreover, ex-ante capacity production can be inefficiently low.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Bergholz, André. „Querying semistructured data based on schema matching“. Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2000. http://dx.doi.org/10.18452/14538.

Der volle Inhalt der Quelle
Annotation:
Daten werden noch immer groesstenteils in Dateien und nicht in Datenbanken gespeichert. Dieser Trend wird durch den Internetboom der 90er Jahre nur noch verstaerkt. Daraus ist das Forschungsgebiet der semistrukturierten Daten entstanden. Semistrukturierte Daten sind Daten, die meist in Dokumenten gespeichert sind und eine implizite und irregulaere Struktur aufweisen. HTML- oder BibTeX-Dateien oder in ASCII-Dateien gespeicherte Genomdaten sind Beispiele. Traditionelles Datenbankmanagement erfordert Design und sichert Deklarativitaet zu. Dies ist im Umfeld der semistrukturierten Daten nicht gegeben, ein flexiblerer Ansatz wird gebraucht. In dieser Arbeit wird ein neuer Ansatz des Abfragens semistrukturierter Daten praesentiert. Wir schlagen vor, semistrukturierte Daten durch eine Menge von partiellen Schemata zu beschreiben, anstatt zu versuchen, ein globales Schema zu definieren. Letzteres ist zwar geeignet, einen effizienten Zugriff auf Daten zu ermoeglichen; ein globales Schema fuer semistrukturierte Daten leidet aber zwangslaeufig an der Irregularitaet der Struktur der Daten. Wegen der vielen Ausnahmen vom intendierten Schema wird ein globales Schema schnell sehr gross und wenig repraesentativ. Damit wird dem Nutzer ein verzerrtes Bild ueber die Daten gegeben. Hingegen koennen partielle Schemata eher ein repraesentatives Bild eines Teils der Daten darstellen. Mit Hilfe statistischer Methoden kann die Guete eines partiellen Schemas bewertet werden, ebenso koennen irrelevante Teile der Datenbank identifiziert werden. Ein Datenbanksystem, das auf partiellen Schemata basiert, ist flexibler und reflektiert den Grad der Strukturierung auf vielen Ebenen. Seine Benutzbarkeit und seine Performanz steigen mit einem hoeheren Grad an Struktur und mit seiner Nutzungsdauer. Partielle Schemata koennen auf zwei Arten gewonnen werden. Erstens koennen sie durch einen Datenbankdesigner bereitgestellt werden. Es ist so gut wie unmoeglich, eine semistrukturierte Datenbank komplett zu modellieren, das Modellieren gewisser Teile ist jedoch denkbar. Zweitens koennen partielle Schemata aus Benutzeranfragen gewonnen werden, wenn nur die Anfragesprache entsprechend entworfen und definiert wird. Wir schlagen vor, eine Anfrage in einen ``Was''- und einen ``Wie''-Teil aufzuspalten. Der ``Was''-Teil wird durch partielle Schemata repraesentiert. Partielle Schemata beinhalten reiche semantische Konzepte, wie Variablendefinitionen und Pfadbeschreibungen, die an Konzepte aus Anfragesprachen angelehnt sind. Mit Variablendefinitionen koennen verschiedene Teile der Datenbank miteinander verbunden werden. Pfadbeschreibungen helfen, durch das Zulassen einer gewissen Unschaerfe, die Irregularitaet der Struktur der Daten zu verdecken. Das Finden von Stellen der Datenbank, die zu einem partiellen Schema passen, bildet die Grundlage fuer alle Arten von Anfragen. Im ``Wie''-Teil der Anfrage werden die gefundenen Stellen der Datenbank fuer die Antwort modifiziert. Dabei koennen Teile der gefundenen Entsprechungen des partiellen Schemas ausgeblendet werden oder auch die Struktur der Antwort voellig veraendert werden. Wir untersuchen die Ausdrucksstaerke unserer Anfragesprache, in dem wir einerseits die Operatoren der relationalen Algebra abbilden und andererseits das Abfragen von XML-Dokumenten demonstrieren. Wir stellen fest, dass das Finden der Entsprechungen eines Schemas (wir nennen ein partielles Schema in der Arbeit nur Schema) den aufwendigsten Teil der Anfragebearbeitung ausmacht. Wir verwenden eine weitere Abstraktionsebene, die der Constraint Satisfaction Probleme, um die Entsprechungen eines Schemas in einer Datenbank zu finden. Constraint Satisfaction Probleme bilden eine allgemeine Klasse von Suchproblemen. Fuer sie existieren bereits zahlreiche Optimierungsalgorithmen und -heuristiken. Die Grundidee besteht darin, Variablen mit zugehoerigen Domaenen einzufuehren und dann die Werte, die verschiedene Variablen gleichzeitig annehmen koennen, ueber Nebenbedingungen zu steuern. In unserem Ansatz wird das Schema in Variablen ueberfuehrt, die Domaenen werden aus der Datenbank gebildet. Nebenbedingungen ergeben sich aus den im Schema vorhandenen Praedikaten, Variablendefinitionen und Pfadbeschreibungen sowie aus der Graphstruktur des Schemas. Es werden zahlreiche Optimierungstechniken fuer Constraint Satisfaction Probleme in der Arbeit vorgestellt. Wir beweisen, dass die Entsprechungen eines Schemas in einer Datenbank ohne Suche und in polynomialer Zeit gefunden werden koennen, wenn das Schema ein Baum ist, keine Variablendefinitionen enthaelt und von der Anforderung der Injektivitaet einer Einbettung abgesehen wird. Zur Optimierung wird das Enthaltensein von Schemata herangezogen. Das Enthaltensein von Schemata kann auf zwei Weisen, je nach Richtung der Enthaltenseinsbeziehung, genutzt werden: Entweder kann der Suchraum fuer ein neues Schema reduziert werden oder es koennen die ersten passenden Stellen zu einem neuen Schema sofort praesentiert werden. Der gesamte Anfrageansatz wurde prototypisch zunaechst in einem Public-Domain Prolog System, spaeter im Constraintsystem ECLiPSe implementiert und mit Anfragen an XML-Dokumente getestet. Dabei wurden die Auswirkungen verschiedener Optimierungen getestet. Ausserdem wird eine grafische Benutzerschnittstelle zur Verfuegung gestellt.
Most of today's data is still stored in files rather than in databases. This fact has become even more evident with the growth of the World Wide Web in the 1990s. Because of that observation, the research area of semistructured data has evolved. Semistructured data is typically stored in documents and has an irregular, partial, and implicit structure. The thesis presents a new framework for querying semistructured data. Traditional database management requires design and ensures declarativity. The possibilities to design are limited in the field of semistructured data, thus, a more flexible approach is needed. We argue that semistructured data should be represented by a set of partial schemata rather than by one complete schema. Because of irregularities of the data, a complete schema would be very large and not representative. Instead, partial schemata can serve as good representations of parts of the data. While finding a complete schema turns out to be difficult, a database designer may be able to provide partial schemata for the database. Also, partial schemata can be extracted from user queries if the query language is designed appropriately. We suggest to split the notion of query into a ``What''- and a ``How''-part. Partial schemata represent the ``What''-part. They cover semantically richer concepts than database schemata traditionally do. Among these concepts are predicates, variable definitions, and path descriptions. Schemata can be used for query optimization, but they also give users hints on the content of the database. Finding the occurrences (matches) of such a schema forms the most important part of query execution. All queries of our approach, such as the focus query or the transformation query, are based on this matching. Query execution can be optimized using knowledge about containment relationships between different schemata. Our approach and the optimization techniques are conceptually modeled and implemented as a prototype on the basis of Constraint Satisfaction Problems (CSPs). CSPs form a general class of search problems for which many techniques and heuristics exist. A CSP consists of variables that have a domain associated to them. Constraints restrict the values that variables can simultaneously take. We transform the problem of finding the matches of a schema in a database to a CSP. We prove that under certain conditions the matches of a schema can be found without any search and in polynomial time. For optimization purposes the containment relationship between schemata is explored. We formulate a sufficient condition for schema containment and test it again using CSP techniques. The containment relationship can be used in two ways depending on the direction of the containment: It is either possible to reduce the search space when looking for matches of a schema, or it is possible to present the first few matches immediately without any search. Our approach has been implemented into the constraint system ECLiPSe and tested using XML documents.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Weber, Richard. „Automatisierte Integration von funkbasierten Sensornetzen auf Basis simultaner Lokalisierung und Kartenerstellung“. 2018. https://tud.qucosa.de/id/qucosa%3A75245.

Der volle Inhalt der Quelle
Annotation:
Ziel der vorliegenden Arbeit ist die Entwicklung eines Verfahrens zur automatisierten Integration funkbasierter drahtloser Sensornetze (engl. Wireless Sensor Network, kurz WSN) in die jeweilige Anwendungsumgebung. Die Sensornetze realisieren dort neben Kommunikationsaufgaben vor allem die Bestimmung von Ortsinformationen. Das Betriebshofmanagement im ÖPNV stellt dabei eine typische Anwendung dar. So wird auf der Grundlage permanent verfügbarer Positionskoordinaten von Bussen und Bahnen als mobile Objekte im Verkehrsumfeld eine effizientere Betriebsführung ermöglicht. Die Datenbasis in dieser Arbeit bilden zum einen geometrische Beziehungen im Sensornetz, die aus Gründen der Verfügbarkeit lediglich durch paarweise Distanzen zwischen den mobilen Objekten und den im Umfeld fest installierten Ankern beschrieben sind. Zum anderen kann auf vorhandenes digitales Kartenmaterial in Form von Vektor- und Rasterkarten bspw. von GIS-Diensten zurückgegriffen werden. Die Argumente für eine Automatisierung sind naheliegend. Einerseits soll der Aufwand der Positionskalibrierung nicht mit der Anzahl verbauter Anker skalieren, was sich ausschließlich automatisiert realisieren lässt. Dadurch werden gleichzeitig symptomatische Fehlerquellen, die aus einer manuellen Systemintegration resultieren, eliminiert. Andererseits soll die Automatisierung ein echtzeitfähiges Betreiben (z.B. Rekalibrierung und Fernwartung) gewährleisten, sodass kostenintensive Wartungs- und Servicedienstleistungen entfallen. Das entwickelte Verfahren generiert zunächst aus den Sensordaten mittels distanzbasierter simultaner Lokalisierung und Kartenerstellung (engl. Range-Only Simultaneous Localization and Mapping, kurz RO-SLAM) relative Positionsinformationen für Anker und mobile Objekte. Anschließend führt das Verfahren diese Informationen im Rahmen einer kooperativen Kartenerstellung zusammen. Aus den relativen, kooperativen Ergebnissen und dem zugrundeliegenden Kartenmaterial wird schließlich ein anwendungsspezifischer absoluter Raumbezug hergestellt. Die Ergebnisse der durchgeführten Verfahrensevaluation belegen anhand generierter semi-realer Sensordaten sowie definierter Testszenarien die Funktions- und Leistungsfähigkeit des entwickelten Verfahrens. Sie beinhalten qualifizierende Aussagen und zeigen darüber hinaus statistisch belastbare Genauigkeitsgrenzen auf.:Abbildungsverzeichnis...............................................X Tabellenverzeichnis...............................................XII Abkürzungsverzeichnis............................................XIII Symbolverzeichnis................................................XVII 1 Einleitung........................................................1 1.1 Stand der Technik...............................................3 1.2 Entwickeltes Verfahren im Überblick.............................4 1.3 Wissenschaftlicher Beitrag......................................7 1.4 Gliederung der Arbeit...........................................8 2 Grundlagen zur Verfahrensumsetzung...............................10 2.1 Überblick zu funkbasierten Sensornetzen........................10 2.1.1 Aufbau und Netzwerk..........................................11 2.1.2 System- und Technologiemerkmale..............................12 2.1.3 Selbstorganisation...........................................13 2.1.4 Räumliche Beziehungen........................................14 2.2 Umgebungsrepräsentation........................................18 2.2.1 Koordinatenbeschreibung......................................19 2.2.2 Kartentypen..................................................20 2.3 Lokalisierung..................................................22 2.3.1 Positionierung...............................................23 2.3.2 Tracking.....................................................28 2.3.3 Koordinatentransformation....................................29 3 Zustandsschätzung dynamischer Systeme............................37 3.1 Probabilistischer Ansatz.......................................38 3.1.1 Satz von Bayes...............................................39 3.1.2 Markov-Kette.................................................40 3.1.3 Hidden Markov Model..........................................42 3.1.4 Dynamische Bayes‘sche Netze..................................43 3.2 Bayes-Filter...................................................45 3.2.1 Extended Kalman-Filter.......................................48 3.2.2 Histogramm-Filter............................................51 3.2.3 Partikel-Filter..............................................52 3.3 Markov Lokalisierung...........................................58 4 Simultane Lokalisierung und Kartenerstellung.....................61 4.1 Überblick......................................................62 4.1.1 Objektbeschreibung...........................................63 4.1.2 Umgebungskarte...............................................65 4.1.3 Schließen von Schleifen......................................70 4.2 Numerische Darstellung.........................................72 4.2.1 Formulierung als Bayes-Filter................................72 4.2.2 Diskretisierung des Zustandsraums............................74 4.2.3 Verwendung von Hypothesen....................................74 4.3 Initialisierung des Range-Only SLAM............................75 4.3.1 Verzögerte und unverzögerte Initialisierung..................75 4.3.2 Initialisierungsansätze......................................76 4.4 SLAM-Verfahren.................................................80 4.4.1 Extended Kalman-Filter-SLAM..................................81 4.4.2 Incremental Maximum Likelihood-SLAM..........................90 4.4.3 FastSLAM.....................................................99 5 Kooperative Kartenerstellung....................................107 5.1 Aufbereitung der Ankerkartierungsergebnisse...................108 5.2 Ankerkarten-Merging-Verfahren.................................110 5.2.1 Auflösen von Mehrdeutigkeiten...............................110 5.2.2 Erstellung einer gemeinsamen Ankerkarte.....................115 6 Herstellung eines absoluten Raumbezugs..........................117 6.1 Aufbereitung der Lokalisierungsergebnisse.....................117 6.1.1 Generierung von Geraden.....................................119 6.1.2 Generierung eines Graphen...................................122 6.2 Daten-Matching-Verfahren......................................123 6.2.1 Vektorbasierte Karteninformationen..........................125 6.2.2 Rasterbasierte Karteninformationen..........................129 7 Verfahrensevaluation............................................133 7.1 Methodischer Ansatz...........................................133 7.2 Datenbasis....................................................135 7.2.1 Sensordaten.................................................137 7.2.2 Digitales Kartenmaterial....................................143 7.3 Definition von Testszenarien..................................145 7.4 Bewertung.....................................................147 7.4.1 SLAM-Verfahren..............................................148 7.4.2 Ankerkarten-Merging-Verfahren...............................151 7.4.3 Daten-Matching-Verfahren....................................152 8 Zusammenfassung und Ausblick....................................163 8.1 Ergebnisse der Arbeit.........................................164 8.2 Ausblick......................................................165 Literaturverzeichnis..............................................166 A Ergänzungen zum entwickelten Verfahren..........................A-1 A.1 Generierung von Bewegungsinformationen........................A-1 A.2 Erweiterung des FastSLAM-Verfahrens...........................A-2 A.3 Ablauf des konzipierten Greedy-Algorithmus....................A-4 A.4 Lagewinkel der Kanten in einer Rastergrafik...................A-5 B Ergänzungen zur Verfahrensevaluation............................A-9 B.1 Geschwindigkeitsprofile der simulierten Objekttrajektorien....A-9 B.2 Gesamtes SLAM-Ergebnis eines Testszenarios....................A-9 B.3 Statistische Repräsentativität...............................A-10 B.4 Gesamtes Ankerkarten-Merging-Ergebnis eines Testszenarios....A-11 B.5 Gesamtes Daten-Matching-Ergebnis eines Testszenarios.........A-18 B.6 Qualitative Ergebnisbewertung................................A-18 B.7 Divergenz des Gesamtverfahrens...............................A-18
The aim of this work is the development of a method for the automated integration of Wireless Sensor Networks (WSN) into the respective application environment. The sensor networks realize there beside communication tasks above all the determination of location information. Therefore, the depot management in public transport is a typical application. Based on permanently available position coordinates of buses and trams as mobile objects in the traffic environment, a more efficient operational management is made possible. The database in this work is formed on the one hand by geometric relationships in the sensor network, which for reasons of availability are only described by pairwise distances between the mobile objects and the anchors permanently installed in the environment. On the other hand, existing digital map material in the form of vector and raster maps, e.g. obtained by GIS services, is used. The arguments for automation are obvious. First, the effort of position calibration should not scale with the number of anchors installed, which can only be automated. This at once eliminates symptomatic sources of error resulting from manual system integration. Secondly, automation should ensure real-time operation (e.g. recalibration and remote maintenance), eliminating costly maintenance and service. Initially, the developed method estimates relative position information for anchors and mobile objects from the sensor data by means of Range-Only Simultaneous Localization and Mapping (RO-SLAM). The method then merges this information within a cooperative map creation. From the relative, cooperative results and the available map material finally an application-specific absolute spatial outcome is generated. Based on semi-real sensor data and defined test scenarios, the results of the realized method evaluation demonstrate the functionality and performance of the developed method. They contain qualifying statements and also show statistically reliable limits of accuracy.:Abbildungsverzeichnis...............................................X Tabellenverzeichnis...............................................XII Abkürzungsverzeichnis............................................XIII Symbolverzeichnis................................................XVII 1 Einleitung........................................................1 1.1 Stand der Technik...............................................3 1.2 Entwickeltes Verfahren im Überblick.............................4 1.3 Wissenschaftlicher Beitrag......................................7 1.4 Gliederung der Arbeit...........................................8 2 Grundlagen zur Verfahrensumsetzung...............................10 2.1 Überblick zu funkbasierten Sensornetzen........................10 2.1.1 Aufbau und Netzwerk..........................................11 2.1.2 System- und Technologiemerkmale..............................12 2.1.3 Selbstorganisation...........................................13 2.1.4 Räumliche Beziehungen........................................14 2.2 Umgebungsrepräsentation........................................18 2.2.1 Koordinatenbeschreibung......................................19 2.2.2 Kartentypen..................................................20 2.3 Lokalisierung..................................................22 2.3.1 Positionierung...............................................23 2.3.2 Tracking.....................................................28 2.3.3 Koordinatentransformation....................................29 3 Zustandsschätzung dynamischer Systeme............................37 3.1 Probabilistischer Ansatz.......................................38 3.1.1 Satz von Bayes...............................................39 3.1.2 Markov-Kette.................................................40 3.1.3 Hidden Markov Model..........................................42 3.1.4 Dynamische Bayes‘sche Netze..................................43 3.2 Bayes-Filter...................................................45 3.2.1 Extended Kalman-Filter.......................................48 3.2.2 Histogramm-Filter............................................51 3.2.3 Partikel-Filter..............................................52 3.3 Markov Lokalisierung...........................................58 4 Simultane Lokalisierung und Kartenerstellung.....................61 4.1 Überblick......................................................62 4.1.1 Objektbeschreibung...........................................63 4.1.2 Umgebungskarte...............................................65 4.1.3 Schließen von Schleifen......................................70 4.2 Numerische Darstellung.........................................72 4.2.1 Formulierung als Bayes-Filter................................72 4.2.2 Diskretisierung des Zustandsraums............................74 4.2.3 Verwendung von Hypothesen....................................74 4.3 Initialisierung des Range-Only SLAM............................75 4.3.1 Verzögerte und unverzögerte Initialisierung..................75 4.3.2 Initialisierungsansätze......................................76 4.4 SLAM-Verfahren.................................................80 4.4.1 Extended Kalman-Filter-SLAM..................................81 4.4.2 Incremental Maximum Likelihood-SLAM..........................90 4.4.3 FastSLAM.....................................................99 5 Kooperative Kartenerstellung....................................107 5.1 Aufbereitung der Ankerkartierungsergebnisse...................108 5.2 Ankerkarten-Merging-Verfahren.................................110 5.2.1 Auflösen von Mehrdeutigkeiten...............................110 5.2.2 Erstellung einer gemeinsamen Ankerkarte.....................115 6 Herstellung eines absoluten Raumbezugs..........................117 6.1 Aufbereitung der Lokalisierungsergebnisse.....................117 6.1.1 Generierung von Geraden.....................................119 6.1.2 Generierung eines Graphen...................................122 6.2 Daten-Matching-Verfahren......................................123 6.2.1 Vektorbasierte Karteninformationen..........................125 6.2.2 Rasterbasierte Karteninformationen..........................129 7 Verfahrensevaluation............................................133 7.1 Methodischer Ansatz...........................................133 7.2 Datenbasis....................................................135 7.2.1 Sensordaten.................................................137 7.2.2 Digitales Kartenmaterial....................................143 7.3 Definition von Testszenarien..................................145 7.4 Bewertung.....................................................147 7.4.1 SLAM-Verfahren..............................................148 7.4.2 Ankerkarten-Merging-Verfahren...............................151 7.4.3 Daten-Matching-Verfahren....................................152 8 Zusammenfassung und Ausblick....................................163 8.1 Ergebnisse der Arbeit.........................................164 8.2 Ausblick......................................................165 Literaturverzeichnis..............................................166 A Ergänzungen zum entwickelten Verfahren..........................A-1 A.1 Generierung von Bewegungsinformationen........................A-1 A.2 Erweiterung des FastSLAM-Verfahrens...........................A-2 A.3 Ablauf des konzipierten Greedy-Algorithmus....................A-4 A.4 Lagewinkel der Kanten in einer Rastergrafik...................A-5 B Ergänzungen zur Verfahrensevaluation............................A-9 B.1 Geschwindigkeitsprofile der simulierten Objekttrajektorien....A-9 B.2 Gesamtes SLAM-Ergebnis eines Testszenarios....................A-9 B.3 Statistische Repräsentativität...............................A-10 B.4 Gesamtes Ankerkarten-Merging-Ergebnis eines Testszenarios....A-11 B.5 Gesamtes Daten-Matching-Ergebnis eines Testszenarios.........A-18 B.6 Qualitative Ergebnisbewertung................................A-18 B.7 Divergenz des Gesamtverfahrens...............................A-18
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Do, Hong-Hai. „Schema matching and mapping-based data integration“. Doctoral thesis, 2005. https://ul.qucosa.de/id/qucosa%3A16447.

Der volle Inhalt der Quelle
Annotation:
Schema matching aims at identifying semantic correspondences between elements of two schemas, e.g., database schemas, ontologies, and XML message formats. It is needed in many database applications, such as integration of web data sources, data warehouse loading and XML message mapping. In today's systems, schema matching is manual; a time-consuming, tedious, and error-prone process, which becomes increasingly impractical with a higher number of schemas and data sources to be dealt with. To reduce the amount of manual effort as much as possible, approaches to semi-automatically determine element correspondences are required.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Trabandt, Julia. „Medi-Matcher: Matching von Medikamentennamen in Form von Freitexteingaben im Kontext von LIFE“. 2015. https://ul.qucosa.de/id/qucosa%3A17241.

Der volle Inhalt der Quelle
Annotation:
In vielen Krankenhäusern, Apotheken, Arztpraxen und Forschungsinstituten werden Informationen zu Medikamenten mithilfe verschiedener Software digital verwaltet. In Deutschland existiert bisher keine einheitliche Norm für Medikamentennamen. Stattdessen wird eine Vielzahl an Synonymen und Beschreibungen für ein einziges Medikament verwendet. Erschwerend kommt hinzu, dass jede medizinische Einrichtung autonom über die, zur Medikamentenverwaltung verwendete Software entscheidet. Dadurch ist die Zusammenführung von Daten aus verschiedenen Systemen schwierig. Um die Datenintegration und den Datenaustausch zu verbessern, muss die Heterogenität der Daten reduziert werden. In Deutschland existieren verschiedene Arzneimittelverzeichnisse wie die Rote Liste [Gmb14], die Gelbe Liste [Med15], der GKV-Arzneimittelindex [dAW15, dAW13] oder Pharm-Net [fMDuID14]. Es wird aber auch auf einige europäische Medikamentendatenbanken wie den Human Mutual Recognition Index [fAuM14] oder den European Medicines Agency [Age15] und sogar amerikanische Standards wie die RxNorm [NZK+11] zurückgegriffen. Immer populärer wird auch die Nutzung von Websites wie mediguard.org um Informationen zu Medikamenten abzurufen. Einen einheitlichen Standard gibt es jedoch nicht. Dies hat zur Folge, dass im Kontext von Studien und Dokumentationen zur Medikamenteneinnahme in Arztpraxen und Apotheken große Mengen an Informationen aufgenommen werden, die jedoch untereinander nicht kompatibel sind. Um mehrere dieser Datenquellen gewinnbringend nutzen zu können, ist es erforderlich die verschiedenen Synonyme der Medikamentennamen abzugleichen und sich auf eine Norm festzulegen. In dieser Arbeit wird auf die Probleme beim Daten-Management in heterogenen Netzwerken eingegangen Deshalb wird: - eine Situationsanalyse für das Daten-Management vorgenommen, - der Datenfluss beim Daten-Management in heterogenen Netzwerken analysiert, - die Aufgaben eines Daten-Management-Systems bestimmt, - benutzbare Standards zu vergleichen, - alternative Verfahren zu diskutieren, - eine Konzeption für ein Daten-Management-System entwickelt, - die Konzetion in ein lauffähiges Programm umzusetzen und - dieses an Beispielen zu erproben. Ein weiteres Augenmerk liegt auf der Untersuchung der Eignung der plattformunabhängigen Programmiersprache JAVA für den Einsatz in größeren Software-Projekten.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Daten-Matching"

1

Lisbach, Bertrand. Linguistisches Identity Matching: Paradigmenwechsel in der Suche und im Abgleich von Personendaten ; mit 20 Tabellen. Wiesbaden: Vieweg + Teubner, 2011.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Daten-Matching"

1

Aisenbrey, Silke. „Die Optimal Matching Analyse und andere Verfahren zur Analyse von zeitbezogenen Daten“. In Optimal Matching Analyse, 110–18. Wiesbaden: VS Verlag für Sozialwissenschaften, 2000. http://dx.doi.org/10.1007/978-3-663-10955-6_6.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie