Inhaltsverzeichnis
Auswahl der wissenschaftlichen Literatur zum Thema „Maschinelle Sprachverarbeitung“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Maschinelle Sprachverarbeitung" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "Maschinelle Sprachverarbeitung"
Ney, Hermann. „Maschinelle Sprachverarbeitung“. Informatik-Spektrum 26, Nr. 2 (01.04.2003): 94–102. http://dx.doi.org/10.1007/s00287-003-0297-1.
Der volle Inhalt der QuelleBecker, Stefan, Klemens Budde, Frank-Peter Tillmann, Karoline Koisar, Laura Wamprecht, Markus Müschenich, Sven Meister und Roland Roller. „Digitale Nephrologie“. DMW - Deutsche Medizinische Wochenschrift 144, Nr. 07 (29.03.2019): 452–56. http://dx.doi.org/10.1055/a-0740-8662.
Der volle Inhalt der QuelleBresson, Daniel. „Zur Analyse nominaler relationaler Komposita im Deutschen im Hinblick auf die maschinelle Sprachverarbeitung“. Cahiers d’études germaniques 21, Nr. 1 (1991): 179–88. http://dx.doi.org/10.3406/cetge.1991.1174.
Der volle Inhalt der QuelleGeißler, Stefan. „Maschinelles Lernen und NLP: Reif für die industrielle Anwendung!“ Information - Wissenschaft & Praxis 70, Nr. 2-3 (08.05.2019): 134–40. http://dx.doi.org/10.1515/iwp-2019-2007.
Der volle Inhalt der QuelleNetter, K. „Syntax in der Maschinellen Sprachverarbeitung“. it - Information Technology 36, Nr. 2 (Januar 1994). http://dx.doi.org/10.1524/itit.1994.36.2.6.
Der volle Inhalt der QuelleDissertationen zum Thema "Maschinelle Sprachverarbeitung"
Raithel, Lisa. „Cross-lingual Information Extraction for the Assessment and Prevention of Adverse Drug Reactions“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG011.
Der volle Inhalt der QuelleThe work described in this thesis deals with the cross- and multi-lingual detection and extraction of adverse drug reactions in biomedical texts written by laypeople. This includes the design and creation of a multi-lingual corpus, exploring ways to collect data without harming users' privacy and investigating whether cross-lingual data can mitigate class imbalance in document classification. It further addresses the question of whether zero- and cross-lingual learning can be successful in medical entity detection across languages. I describe the creation of a new tri-lingual corpus (German, French, Japanese) focusing on German and French, including the development of annotation guidelines applicable to any language and oriented towards user-generated texts. I further describe the annotation process and give an overview of the resulting dataset. The data is provided with annotations on four levels: document-level, for describing if a text contains ADRs or not; entity level for capturing relevant expressions; attribute level to further specify these expressions; The last level annotates relations to extract information on how the aforementioned entities interact. I then discuss the topic of user privacy in data about health-related issues and the question of how to collect such data for research purposes without harming the person's privacy. I provide a prototype study of how users react when they are directly asked about their experiences with ADRs. The study reveals that most people do not mind describing their experiences if asked, but that data collection might suffer from too many questions in the questionnaire. Next, I analyze the results of a potential second way of collecting social media data: the synthetic generation of pseudo-tweets based on real Twitter messages. In the analysis, I focus on the challenges this approach entails and find, despite some preliminary cleaning, that there are still problems to be found in the translations, both with respect to the meaning of the text and the annotated labels. I, therefore, give anecdotal examples of what can go wrong during automatic translation, summarize the lessons learned, and present potential steps for improvements. Subsequently, I present experimental results for cross-lingual document classification with respect to ADRs in English and German. For this, I fine-tuned classification models on different dataset configurations first on English and then on German documents, complicated by the strong label imbalance of either language's dataset. I find that incorporating English training data helps in the classification of relevant documents in German, but that it is not enough to mitigate the natural imbalance of document labels efficiently. Nevertheless, the developed models seem promising and might be particularly useful for collecting more texts describing experiences about side effects to extend the current corpus and improve the detection of relevant documents for other languages. Next, I describe my participation in the n2c2 2022 shared task of medication detection which is then extended from English to German, French and Spanish using datasets from different sub-domains based on different annotation guidelines. I show that the multi- and cross-lingual transfer works well but also strongly depends on the annotation types and definitions. After that, I re-use the discussed models to show some preliminary results on the presented corpus, first only on medication detection and then across all the annotated entity types. I find that medication detection shows promising results, especially considering that the models were fine-tuned on data from another sub-domain and applied in a zero-shot fashion to the new data. Regarding the detection of other medical expressions, I find that the performance of the models strongly depends on the entity type and propose ways to handle this. Lastly, the presented work is summarized and future steps are discussed
Die in dieser Dissertation beschriebene Arbeit befasst sich mit der mehrsprachigen Erkennung und Extraktion von unerwünschten Arzneimittelwirkungen in biomedizinischen Texten, die von Laien verfasst wurden. Ich beschreibe die Erstellung eines neuen dreisprachigen Korpus (Deutsch, Französisch, Japanisch) mit Schwerpunkt auf Deutsch und Französisch, einschließlich der Entwicklung von Annotationsrichtlinien, die für alle Sprachen gelten und sich an nutzergenerierten Texten orientieren. Weiterhin dokumentiere ich den Annotationsprozess und gebe einen Überblick über den resultierenden Datensatz. Anschließend gehe ich auf den Schutz der Privatsphäre der Nutzer in Bezug auf Daten über Gesundheitsprobleme ein. Ich präsentiere einen Prototyp zu einer Studie darüber, wie Nutzer reagieren, wenn sie direkt nach ihren Erfahrungen mit Nebenwirkungen befragt werden. Die Studie zeigt, dass die meisten Menschen nichts dagegen haben, ihre Erfahrungen zu schildern, wenn sie um Erlaubnis gefragt werden. Allerdings kann die Datenerhebung darunter leiden, dass der Fragebogen zu viele Fragen enthält. Als nächstes analysiere ich die Ergebnisse einer zweiten potenziellen Methode zur Datenerhebung in sozialen Medien, der synthetischen Generierung von Pseudo-Tweets, die auf echten Twitter-Nachrichten basieren. In der Analyse konzentriere ich mich auf die Herausforderungen, die dieser Ansatz mit sich bringt, und zeige, dass trotz einer vorläufigen Bereinigung noch Probleme in den Übersetzungen zu finden sind, sowohl was die Bedeutung des Textes als auch die annotierten Tags betrifft. Ich gebe daher anekdotische Beispiele dafür, was bei einer maschinellen Übersetzung schiefgehen kann, fasse die gewonnenen Erkenntnisse zusammen und stelle potenzielle Verbesserungsmaßnahmen vor. Weiterhin präsentiere ich experimentelle Ergebnisse für die Klassifizierung mehrsprachiger Dokumente bezüglich medizinischer Nebenwirkungen im Englischen und Deutschen. Dazu wurden Klassifikationsmodelle an verschiedenen Datensatzkonfigurationen verfeinert (fine-tuning), zunächst an englischen und dann an deutschen Dokumenten. Dieser Ansatz wurde durch das starke Ungleichgewicht der Labels in den beiden Datensätzen verkompliziert. Die Ergebnisse zeigen, dass die Einarbeitung englischer Trainingsdaten bei der Klassifizierung relevanter deutscher Dokumente hilft, aber nicht ausreicht, um das natürliche Ungleichgewicht der Dokumentenklassen wirksam abzuschwächen. Dennoch scheinen die entwickelten Modelle vielversprechend zu sein und könnten besonders nützlich sein, um weitere Texte zu sammeln. Dieser wiederum können das aktuelle Korpus erweitern und damit die Erkennung relevanter Dokumente für andere Sprachen verbessern. Nachfolgend beschreibe ich die Teilnahme am n2c2 2022 Shared Task zur Erkennung von Medikamenten. Die Ansätze des Shared Task werden anschließend vom Englischen auf deutsche, französische und spanische Korpora ausgeweitet, indem Datensätze aus verschiedenen Teilbereichen verwendet werden, die auf unterschiedlichen Annotationsrichtlinien basieren. Ich zeige, dass die mehrsprachige Übertragung gut funktioniert, aber auch stark von den Annotationstypen und Definitionen abhängt. Im Anschluss verwende ich die besprochenen Modelle erneut, um einige vorläufige Ergebnisse für das vorgestellte Korpus zu zeigen, zunächst nur für die Erkennung von Medikamenten und dann für alle Arten von annotierten Entitäten. Die experimentellen Ergebnisse zeigen, dass die Medikamentenerkennung vielversprechende ist, insbesondere wenn man bedenkt, dass die Modelle an Daten aus einem anderen Teilbereich verfeinert und mit einem zeroshot Ansatz auf die neuen Daten angewendet wurden. In Bezug auf die Erkennung anderer medizinischer Ausdrücke stellt sich heraus,dass die Leistung der Modelle stark von der Art der Entität abhängt. Ich schlage deshalb Möglichkeiten vor, wie man dieses Problem in Zukunft angehen könnte
Jähnichen, Patrick. „Time Dynamic Topic Models“. Doctoral thesis, Universitätsbibliothek Leipzig, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-200796.
Der volle Inhalt der QuelleHerms, Robert. „Effective Speech Features for Cognitive Load Assessment: Classification and Regression“. Universitätsverlag Chemnitz, 2018. https://monarch.qucosa.de/id/qucosa%3A33346.
Der volle Inhalt der QuelleDie vorliegende Arbeit befasst sich mit der automatischen Erkennung von kognitiver Belastung auf Basis menschlicher Sprachmerkmale. Der Schwerpunkt liegt auf der Effektivität von akustischen Parametern, wobei die aktuelle Forschung auf diesem Gebiet um neuartige Ansätze erweitert wird. Hierzu wird ein neuer Datensatz – als CoLoSS bezeichnet – vorgestellt, welcher Sprachaufzeichnungen von Nutzern enthält und speziell auf Lernprozesse fokussiert. Zahlreiche Parameter der Prosodie, Stimmqualität und des Spektrums werden im Hinblick auf deren Relevanz analysiert. Darüber hinaus werden die Eigenschaften des Teager Energy Operators, welche typischerweise bei der Stressdetektion Verwendung finden, im Rahmen dieser Arbeit berücksichtigt. Ebenso wird gezeigt, wie automatische Spracherkennungssysteme genutzt werden können, um potenzielle Indikatoren zu extrahieren. Die Eignung der extrahierten Merkmale wird systematisch evaluiert. Dabei kommen sprecherunabhängige Klassifikationssysteme zur Unterscheidung von drei Belastungsstufen zum Einsatz. Zusätzlich wird ein neuartiger Ansatz zur sprachbasierten Modellierung der kognitiven Belastung vorgestellt, bei dem die Belastung eine kontinuierliche Größe darstellt und eine Vorhersage folglich als ein Regressionsproblem betrachtet werden kann.
Jähnichen, Patrick. „Time Dynamic Topic Models“. Doctoral thesis, 2015. https://ul.qucosa.de/id/qucosa%3A14614.
Der volle Inhalt der QuelleBücher zum Thema "Maschinelle Sprachverarbeitung"
Brustkern, Jan. Maschinenlesbare Lexika für die maschinelle Sprachverarbeitung: Repräsentation und Wiederverwendung. Bonn: Holos, 1992.
Den vollen Inhalt der Quelle findenIberoamerican Congress on Pattern Recognition <13, 2008, La Habana>. Progress in Pattern Recognition, Image Analysis and Applications: 9th Iberoamerican Congress on Pattern Recognition, CIARP 2004, Puebla, Mexico, October 26-29, 2004. Proceedings. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004.
Den vollen Inhalt der Quelle findenReischer, Jürgen. Linguistische und philosophische Aspekte der natürlichen und maschinellen Sprachverarbeitung: Über Denken, Sprache, Bedeutung und Handeln bei Mensch und Maschine. Idstein: Schulz-Kirchner, 2000.
Den vollen Inhalt der Quelle findenIberoamerican Congress on Pattern Recognition (14th 2009 Guadalajara, Mexico). Progress in pattern recognition, image analysis, computer vision, and applications: 14th Iberoamerican Conference on Pattern Recognition, CIARP 2009, Guadalajara, Jalisco, Mexico, November 15-18, 2009 : proceedings. Berlin: Springer, 2009.
Den vollen Inhalt der Quelle findenBloch, Isabelle. Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications: 15th Iberoamerican Congress on Pattern Recognition, CIARP 2010, Sao Paulo, Brazil, November 8-11, 2010. Proceedings. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010.
Den vollen Inhalt der Quelle findenBorchardt, Gary C. Thinking between the lines: Computers and the comprehension of causaldescriptions. Cambridge, Mass: MIT Press, 1994.
Den vollen Inhalt der Quelle findenBorchardt, Gary C. Thinking between the lines: Computers and the comprehension of causal descriptions. Cambridge, Mass: MIT Press, 1994.
Den vollen Inhalt der Quelle findenUrsula, Klenk, und Deutsche Gesellschaft für Sprachwissenschaft. Jahrestagung, Hrsg. Strukturen und Verfahren in der maschinellen Sprachverarbeitung. Dudweiler: AQ-Verlag, 1985.
Den vollen Inhalt der Quelle findenTextgenerierung aus visuellen Daten: Beschreibungen von Straßenszenen. Berlin, Heidelberg: Springer Berlin Heidelberg, 1987.
Den vollen Inhalt der Quelle findenBuchteile zum Thema "Maschinelle Sprachverarbeitung"
Görz, Günther. „Tutorium „Maschinelle Sprachverarbeitung““. In Informatik aktuell, 399–400. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/978-3-642-72283-7_48.
Der volle Inhalt der QuelleMainzer, Klaus. „Maschinelle Sprachverarbeitung, Kognition und Sprachphilosophie“. In Springer Reference Geisteswissenschaften, 1–28. Wiesbaden: Springer Fachmedien Wiesbaden, 2023. http://dx.doi.org/10.1007/978-3-658-23715-8_55-1.
Der volle Inhalt der QuelleBiemann, Chris, Gerhard Heyer und Uwe Quasthoff. „Maschinelles Lernen für Sprachverarbeitung“. In Wissensrohstoff Text, 257–309. Wiesbaden: Springer Fachmedien Wiesbaden, 2022. http://dx.doi.org/10.1007/978-3-658-35969-0_6.
Der volle Inhalt der QuelleLang, Sebastian. „Einleitung“. In Methoden des bestärkenden Lernens für die Produktionsablaufplanung, 1–12. Wiesbaden: Springer Fachmedien Wiesbaden, 2023. http://dx.doi.org/10.1007/978-3-658-41751-2_1.
Der volle Inhalt der QuelleNey, Hermann. „Der statistische Ansatz in der maschinellen Sprachverarbeitung“. In Sprache zwischen Theorie und Technologie / Language between Theory and Technology, 211–25. Wiesbaden: Deutscher Universitätsverlag, 2003. http://dx.doi.org/10.1007/978-3-322-81289-6_17.
Der volle Inhalt der QuelleBlock, Hans Ulrich. „Moderne Grammatikformalismen und ihr Einsatz in der maschinellen Sprachverarbeitung“. In Forum ’90 Wissenschaft und Technik, 59–79. Berlin, Heidelberg: Springer Berlin Heidelberg, 1990. http://dx.doi.org/10.1007/978-3-642-76123-2_5.
Der volle Inhalt der QuelleNietzio, Annika. „Geht das automatisch ? »Leichte Sprache« und die Möglichkeiten der maschinellen Sprachverarbeitung“. In Leicht Lesen, 239–54. Wien: Böhlau Verlag, 2015. http://dx.doi.org/10.7767/9783205203292-016.
Der volle Inhalt der Quelle