Auswahl der wissenschaftlichen Literatur zum Thema „Anomalies temporelles“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Anomalies temporelles" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Anomalies temporelles"

1

Nelson, Chantal, Jennifer Lye, Neetu Shukla, Hongbo Liang und Wei Luo. „Avis de publication - Outil de données sur les anomalies congénitales au Canada : mise à jour sur les taux de prévalence et les tendances sur 15 ans (2006 à 2020)“. Promotion de la santé et prévention des maladies chroniques au Canada 43, Nr. 3 (März 2023): 165. http://dx.doi.org/10.24095/hpcdp.43.3.05f.

Der volle Inhalt der Quelle
Annotation:
L’équipe du Système canadien de surveillance des anomalies congénitales (SCSAC) de l’Agence de la santé publique du Canada (ASPC) a le plaisir d’annoncer la disponibilité du plus récent Outil de données sur les anomalies congénitales au Canada. L’Outil de données interactif, qu’on retrouve sur le site Web Infobase de l’ASPC, contient l’information la plus récente sur les taux de prévalence et les tendances temporelles de 38 anomalies congénitales sélectionnées (et regroupées en 12 catégories) au Canada. Les données proviennent de la Base de données sur les congés des patients de l’Institut canadien d'information sur la santé, qui contient des données de l’ensemble des provinces et des territoires, sauf le Québec. Les données tiennent compte d’une période de suivi d’un an après la naissance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Souêtre, E., E. Salvati, M. Savelli, B. Krebs, A. Jorlet, J. L. Ardisson und G. Darcourt. „Rythmes endocriniens en période de dépression et de rémission“. Psychiatry and Psychobiology 3, Nr. 1 (1988): 19–27. http://dx.doi.org/10.1017/s0767399x00001280.

Der volle Inhalt der Quelle
Annotation:
RésuméLa participation des rythmes biologiques circadiens à la pathogénie de la dépression repose sur une série d’arguments cliniques, thérapeutiques et biologiques. La recrudescence matinale des symptômes dépressifs oriente vers une anomalie de l’organisation temporelle. Les aspects épidémiologiques de la dépression ou des suicides évoquent, quant à eux, l’existence de recrudescence saisonnière dans laquelle les facteurs naturels de synchronisation pourraient jouer un role. De plus, les thérapeutiques de la dépression agissent directement sur les horloges biologiques, qu’il s’agisse des manipulations du cycle veille/sommeil, de la photothérapie ou des antidépresseurs.Notre étude longitudinale a permis de comparer les rythmes circadiens de cortisol, de TSH et de mélatonine plasmatique chez des sujets déprimés (n = 16), chez des sujets en rémission clinique (n = 15) ainsi que chez des sujets sains (n = 16). Nos résultats montrent de profondes perturbations du système circadien endocrinien en période dépressive. L’anomalie essentielle semble porter sur l’amplitude des rythmes, les sécrétions nocturnes de TSH et de mélatonine étant effondrées chez les sujets dépressifs. Ces perturbations disparaissent avec l’amélioration clinique des sujets.Nos résultats confirment, dans une certaine mesure, les interrelations temporelles et fonctionnelles qui existent entre les sécrétions de cortisol, de TSH et de mélatonine. Par ailleurs, l’absence de décalage horaire de la position des rythmes étudiés incite à nuancer l’hypothèse d’une désynchronisation biologique dans la dépression pour privilégier une défaillance des mécanismes de couplage entre les facteurs synchronisants de l’environnement et les oscillateurs centraux. Dans cette perspective, les traitements de la dépression tels que les manipulations du cycle veille/sommeil, la photothérapie ainsi que les tricycliques semblent agir sur ces mécanismes de transmission de l’information temporelle soit en augmentant artificiellement leur intensité, soit en abaissant le seuil de perception. Cette hypothèse pourrait aboutir à concevoir de nouveaux outils thérapeutiques des troubles de l’humeur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Daget, Ph, und S. Reyes. „Sur la variabilite des precipitations dans la basse californie du nord (Mexique)“. Geofísica Internacional 28, Nr. 4 (01.10.1989): 693–720. http://dx.doi.org/10.22201/igeof.00167169p.1989.28.4.1318.

Der volle Inhalt der Quelle
Annotation:
Les données de 36 stations climatologiques, pour la période 1957 - 1983, ont été utilisées pour caractériser l’influence tropicale sur les précipitations observées en Basse Californie du Nord. Les résultats obtenus mettent en évidence que les variabilités spatiale et temporelle sont associées á la tropicalité. Pendant l’hiver, les précipitations sont surtout originaires des latitudes moyennes (c’est-á-dire du Pacifique Nord). Pendant l’été, les précipitations ont une origine tropicale, c’est-á-dire, du Pacifique et de l’Atlantique équatoriaux ; cependant, le volume des précipitations est étroitement dépendant d’un phénomène á échelle planétaire. L’analyse met en effet en évidence une très forte influence tropicale pendant les périodes de « NO-ENSO » (ou El Niño/Oscillation australe). L’indice de tropicale (défini comme le quotient de la somme des médianes mensuelles des précipitations estivales par la somme des médianes mensuelles des précipitations estivales par la comme des médianes mensuelles sur l’ensemble de l’année ) est maximal en 1963, 1967, 1971 et 1976 avec des valeurs de 42%, 48%, 59% et 57% respectivement. Tous les quatre coïncident avec des anomalies positives du Southern Oscillation Index
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Amestoy, A. „La douleur chez les personnes avec Trouble du Spectre de l’Autisme. État des lieux et perspectives“. European Psychiatry 29, S3 (November 2014): 602. http://dx.doi.org/10.1016/j.eurpsy.2014.09.203.

Der volle Inhalt der Quelle
Annotation:
Longtemps ignorée, la douleur des personnes souffrant de pathologie mentale et troubles neuro-développementaux tels que les Troubles du Spectre de l’Autisme (TSA) est considérée comme l’une des plus difficiles à prendre en charge. La douleur non exprimée ne joue plus son rôle d’alerte à la menace vitale et contribue à l’augmentation de la mortalité liée à des pathologies somatiques dans ces populations dites vulnérables, notamment chez les adultes avec TSA [1,4], chez qui la prescription de psychotropes compliquent les mesures d’hétéro-évaluations classiques. Certaines études expérimentales ont montrés que ces groupes de patients présentent des particularités nociceptives avec des seuils à la nociception augmentés ou des réactions paradoxales, mais les résultats sont contradictoires [2]. Les causes de ces phénomènes sont mal comprises. Une atteinte des structures cérébrales impliquées dans l’intégration émotionnelle de la douleur (cortex préfrontal), une augmentation de l’activité opiacée, une dissociation paradoxale entre la réponse comportementale et les réactions neurovégétatives, des possibles anomalies des mécanismes excitateurs responsables de la sommation temporelle, ont contrebalancé les hypothèses plus psychopathologiques de troubles de l’expression de la douleur dans cette condition pathologiques développementales [1,3]. En effet, au-delà de l’atteinte des processus cognitifs, les troubles de la communication chez les personnes avec TSA sont à ce jour considérés comme la principale cible des interventions à mener dans les cadres psycho-éducatifs et thérapeutiques afin de mieux prévenir et dépister la douleur chez ces patients hautement vulnérables. Car si communiquer diminue la douleur, la douleur diminue, elle les capacités de communication déjà altérées dans ces troubles, d’où l’enjeu essentiel des stratégies d’aides à la communication ou communication augmentée, qui ne peuvent plus être considérées en 2014 comme un « si besoin… ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Barbu-Roth, Marianne, Evelyne Soyez-Papiernik und Marie-Victorine Dumuids-Vernet. „Stimuler la motricité sur le Crawliskate“. Enfance N° 4, Nr. 4 (01.12.2023): 339–68. http://dx.doi.org/10.3917/enf2.234.0339.

Der volle Inhalt der Quelle
Annotation:
Dans cet article nous présentons les démarches et les tests que nous avons mis en place en amont, pour évaluer les risques d’utiliser un nouveau protocole pour stimuler la motricité de grands prématurés en les entraînant à la marche quadrupède sur un mini skate dès leur sortie de néonatologie. Méthode : cette étude a été effectuée sur une population pilote de 44 grands prématurés qui ne présentaient pas de lésion cérébrale majeure mais qui étaient néanmoins à risque de développer des anomalies du développement moteur. Les sujets ont été séparés en trois groupes : un groupe Crawli entraîné sur un mini skate, le Crawliskate, un groupe Tapis entraîné à la position sur le ventre sur un tapis et un groupe Contrôle sans entraînement. Les entraînements ont été effectués 5 minutes par jour pendant 8 semaines consécutives à domicile par des professionnels. Les effets délétères éventuels de l’entraînement Crawli ont été surveillés lors de l’entraînement et en suivant les sujets jusqu’à 12 mois d’âge corrigé avec l’échelle de l’ATNAT (évaluation neurodéveloppementale d’Amiel-Tison). Résultats : les rapports relevés lors des entraînements par les professionnels ont montré une bonne tolérance des enfants et de leurs parents. Tous les nourrissons prématurés du groupe Crawli étaient capables de se propulser avec des mouvements quadrupèdes avec l’aide du Crawliskate sans effets délétères ensuite au cours de leur première année de vie. En revanche, les nourrissons positionnés directement sur le tapis sans le Crawliskate étaient incapables de se déplacer et ont développé une hyperextension transitoire du tonus passif de l’axe à 2 mois corrigés. L’entraînement Crawli semble donc plus adapté pour commencer, dès leur sortie du service de néonatologie, une intervention stimulant le développement moteur/locomoteur de grands prématurés dans une fenêtre temporelle maximale de la plasticité de leurs structures neuro motrices.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Razagui, Abdelhak, und Nour El Islam Bachari. „Analyse spatio-temporelle de l’indice de végétation NDVI calculé à partir des images satellites NOAA et MSG“. Journal of Renewable Energies 17, Nr. 3 (19.10.2023). http://dx.doi.org/10.54966/jreen.v17i3.463.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour objectif de dresser un état du lieu sur la variabilité du couvert végétal à travers le territoire de l’Algérie. Pour réaliser ce travail, la donnée de base utilisée est l’indice de végétation normalisée NDVI. A partir de ces images, NDVI décadaire du satellite NOAA, l’analyse statistique nous montre globalement une alternance interannuelle des maximums mais la tendance reste stationnaire sur toute la période. Des anomalies négatives de l’ordre de 0.1 sont enregistrées sur l’ensemble des régions proches côtières, contrairement des anomalies significatives positivement sont enregistrées sur les Aurès. Les valeurs de l’écart type sont nettement faibles par rapport à la climatologie sur toutes les régions. Pour le mois de juillet de la même année, le couvert végétal a nettement reculer plus au nord et les fortes valeurs sont observées sur les montagnes du centre, de l’Est et de l’extrême est de l’Algérie. La comparaison des valeurs NDVI calculées à partir des images météosat (MSG) montre bien une sous-estimation par rapport à celles calculées à partir NOAA AVHRR. MSG reste encore non adapter pour le suivi de la végétation éparse ou de type saharienne non étoffés et bien localisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Merlet, Isabelle. „Analyse dipolaire des paroxysmes intercritiques et critiques en EEG et MEG“. Epileptic Disorders 3, SP1 (Dezember 2001). http://dx.doi.org/10.1684/j.1950-6945.2001.tb00409.x.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Les méthodes de modélisation dipolaire permettent d'estimer statistiquement la localisation et l'orientation des sources des signaux électroencéphalographiques (EEG) ou magnétoencéphalographiques (MEG). Ces méthodes ont été appliquées aux paroxysmes intercritiques depuis plus de 20 ans et suggèrent que la genèse des paroxysmes intercritiques repose plus sur l'expression d'un réseau de structures anatomiques que sur l'activation d'une région très focale. Nous examinons dans cette revue: (1) l'étendue de ce réseau selon différents types d'épilepsies, (2) les rapports entre ce réseau et les anomalies structurelles identifiées grâce à l'imagerie par résonance magnétique (IRM) ou les anomalies fonctionnelles observées en tomographie par émission de positons (TEP), et (3) la concordance spatiale et temporelle des sources dipolaires des paroxysmes intercritiques et critiques avec les enregistrements intracrâniens simultanés. Les informations issues des données de la modélisation dipolaire des pointes intercritiques sont généralement insuffisantes pour planifier une chirurgie sélective sans enregistrements invasifs. Cependant, les résultats des études examinées dans cette revue montrent que, confrontés aux données des autres techniques non invasives, les résultats de la modélisation dipolaire peuvent s'avérer utiles pour mieux définir la limite de la zone épileptogène ou l'étendue de l'implantation stéréo‐électroencéphalographique (SEEG).
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Anomalies temporelles"

1

Ravilly, Morgane. „Etude de l'anomalie magnétique axiale le long de la ride médio-atlantique : implications sur les processus de l'accrétion et les variations temporelles du champ géomagnétique“. Brest, 1999. http://www.theses.fr/1999BRES2042.

Der volle Inhalt der Quelle
Annotation:
Les anomalies magnetiques oceaniques sont generalement utilisees a des fins de datation, on s'interesse ici aux informations qu'elles renferment sur la source aimantee au travers d'une etude des variations d'amplitude et de forme de l'anomalie magnetique axiale le long de la ride medio-atlantique entre 20 et 45\n. Alliee aux donnees acquises lors des plongees submersible (donnees magnetiques de fond et echantillonnage regulier du plancher oceanique de 0 a 1. 5 m. A. ) realisees sur le segment tammar (21\30'n), cette etude nous permet de rattacher les proprietes de la structure aimantee aux processus de l'accretion, tant a l'echelle des points chauds qu'a celle plus locale de la segmentation, et aux fluctuations de l'intensite du champ geomagnetique. De fortes amplitudes de l'anomalie magnetique axiale et des anomalies magnetiques satellitaires positives sont associees aux domaines oceaniques situes a proximite des points chauds, suggerant que le signal magnetique permet d'apprehender la dynamique sublithospherique. Les segments elementaires d'accretion presentent une signature magnetique systematique avec des amplitudes plus fortes en extremites interpretees comme refletant la presence de basaltes differenciees ou celle de peridotites serpentinisees. Dans le contexte des centres de segment, l'anomalie magnetique axiale presente des micro-anomalies qui peuvent etre vues comme resultant des variations temporelles de l'intensite du champ geomagnetique et de l'alternance de periode a dominante soit volcanique soit tectonique. Au centre du segment tammar, les determinations de l'intensite du champ ancien effectuees en appliquant la methode originale de thellier (1959) aux 66 basaltes oceaniques collectes semblent confirmer l'hypothese rattachant les micro-anomalies aux fluctuations de l'intensite du champ geomagnetique et suggerent par ailleurs que le signal paleointensite peut etre utilise pour dater avec finesse le plancher oceanique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Wilmet, Audrey. „Détection d'anomalies dans les flots de liens : combiner les caractéristiques structurelles et temporelles“. Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS402.

Der volle Inhalt der Quelle
Annotation:
Un flot de liens est un ensemble de liens {(t,u,v)} dans lequel un triplet (t,u,v) modélise l'interaction entre deux entités u et v à l'instant t. Dans de nombreuses situations, les données résultent de la mesure des interactions entre plusieurs millions d'entités au cours du temps et peuvent ainsi être étudiées grâce au formalisme des flots de liens. C'est le cas des appels téléphoniques, des échanges d'e-mails, des transferts d'argent, des contacts entre individus, du trafic IP, des achats en ligne, et bien d'autres encore. L'objectif de cette thèse est la détection d'ensembles de liens anormaux dans un flot de liens. Dans une première partie, nous concevons une méthode qui construit différents contextes, un contexte étant un ensemble de caractéristiques décrivant les circonstances d'une anomalie. Ces contextes nous permettent de trouver des comportements inattendus pertinents, selon plusieurs dimensions et perspectives. Dans une seconde partie, nous concevons une méthode permettant de détecter des anomalies dans des distributions hétérogènes dont le comportement est constant au cours du temps, en comparant une séquence de distributions hétérogènes similaires. Nous appliquons nos outils méthodologiques à des interactions temporelles provenant de retweets sur Twitter et de trafic IP du groupe MAWI
A link stream is a set of links {(t, u, v)} in which a triplet (t, u, v) models the interaction between two entities u and v at time t. In many situations, data result from the measurement of interactions between several million of entities over time and can thus be studied through the link stream's formalism. This is the case, for instance, of phone calls, email exchanges, money transfers, contacts between individuals, IP traffic, online shopping, and many more. The goal of this thesis is the detection of sets of abnormal links in a link stream. In a first part, we design a method that constructs different contexts, a context being a set of characteristics describing the circumstances of an anomaly. These contexts allow us to find unexpected behaviors that are relevant, according to several dimensions and perspectives. In a second part, we design a method to detect anomalies in heterogeneous distributions whose behavior is constant over time, by comparing a sequence of similar heterogeneous distributions. We apply our methodological tools to temporal interactions coming from retweets of Twitter and IP traffic of MAWI group
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Benkabou, Seif-Eddine. „Détection d’anomalies dans les séries temporelles : application aux masses de données sur les pneumatiques“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1046/document.

Der volle Inhalt der Quelle
Annotation:
La détection d'anomalies est une tâche cruciale qui a suscité l'intérêt de plusieurs travaux de recherche dans les communautés d'apprentissage automatique et fouille de données. La complexité de cette tâche dépend de la nature des données, de la disponibilité de leur étiquetage et du cadre applicatif dont elles s'inscrivent. Dans le cadre de cette thèse, nous nous intéressons à cette problématique pour les données complexes et particulièrement pour les séries temporelles uni et multi-variées. Le terme "anomalie" peut désigner une observation qui s'écarte des autres observations au point d'éveiller des soupçons. De façon plus générale, la problématique sous-jacente (aussi appelée détection de nouveautés ou détection des valeurs aberrantes) vise à identifier, dans un ensemble de données, celles qui différent significativement des autres, qui ne se conforment pas à un "comportement attendu" (à définir ou à apprendre automatiquement), et qui indiquent un processus de génération différent. Les motifs "anormaux" ainsi détectés se traduisent souvent par de l'information critique. Nous nous focalisons plus précisément sur deux aspects particuliers de la détection d'anomalies à partir de séries temporelles dans un mode non-supervisé. Le premier est global et consiste à ressortir des séries relativement anormales par rapport une base entière. Le second est dit contextuel et vise à détecter localement, les points anormaux par rapport à la structure de la série étudiée. Pour ce faire, nous proposons des approches d'optimisation à base de clustering pondéré et de déformation temporelle pour la détection globale ; et des mécanismes à base de modélisation matricielle pour la détection contextuelle. Enfin, nous présentons une série d'études empiriques sur des données publiques pour valider les approches proposées et les comparer avec d'autres approches connues dans la littérature. De plus, une validation expérimentale est fournie sur un problème réel, concernant la détection de séries de prix aberrants sur les pneumatiques, pour répondre aux besoins exprimés par le partenaire industriel de cette thèse
Anomaly detection is a crucial task that has attracted the interest of several research studies in machine learning and data mining communities. The complexity of this task depends on the nature of the data, the availability of their labeling and the application framework on which they depend. As part of this thesis, we address this problem for complex data and particularly for uni and multivariate time series. The term "anomaly" can refer to an observation that deviates from other observations so as to arouse suspicion that it was generated by a different generation process. More generally, the underlying problem (also called novelty detection or outlier detection) aims to identify, in a set of data, those which differ significantly from others, which do not conform to an "expected behavior" (which could be defined or learned), and which indicate a different mechanism. The "abnormal" patterns thus detected often result in critical information. We focus specifically on two particular aspects of anomaly detection from time series in an unsupervised fashion. The first is global and consists in detecting abnormal time series compared to an entire database, whereas the second one is called contextual and aims to detect locally, the abnormal points with respect to the global structure of the relevant time series. To this end, we propose an optimization approaches based on weighted clustering and the warping time for global detection ; and matrix-based modeling for the contextual detection. Finally, we present several empirical studies on public data to validate the proposed approaches and compare them with other known approaches in the literature. In addition, an experimental validation is provided on a real problem, concerning the detection of outlier price time series on the tyre data, to meet the needs expressed by, LIZEO, the industrial partner of this thesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Binder, Benjamin. „Definitions and Detection Procedures of Timing Anomalies for the Formal Verification of Predictability in Real-Time Systems“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG086.

Der volle Inhalt der Quelle
Annotation:
Les systèmes temps-réel sont souvent validés par des analyses temporelles, qui sont mises en péril par des anomalies temporelles (AT). Une AT contre-intuitive a lieu quand une accélération locale conduit à un ralentissement global, et une AT d'amplification, quand un ralentissement local entraîne un ralentissement encore plus grand.Alors que les AT contre-intuitives menacent le bien-fondé ou la flexibilité des analyses, il n'existe pas d'outils pour les détecter de manière systématique. Nous proposons une structure formelle unifiée pour évaluer les définitions des AT, concluant au manque d'une définition pratique, principalement dû à l'absence de relations entre les effets temporels locaux et globaux. Nous y répondons par la causalité, que nous utilisons pour revoir la formalisation de ces AT. Nous proposons aussi une instance des notions spécialisée pour les pipelines out-of-order. Nous évaluons notre procédure de détection subséquente sur des exemples illustratifs et bancs de tests, montrant qu'elle permet de capturer précisément les AT.La complexité des systèmes exige que leurs analyses gèrent l'important espace d'états résultant. Une solution est de réaliser des analyses compositionnelles, précisément menacées par les AT d'amplification. Nous faisons progresser leur étude en montrant comment une abstraction spécialisée peut être adaptée pour un processeur industriel, en modélisant les caractéristiques temporelles clés avec des réductions appropriées. Nous illustrons aussi à partir de cette classe d'AT comment des stratégies de vérification peuvent être utilisées en vue de l'obtention de motifs d'AT
The timing behavior of real-time systems is often validated through timing analyses, which are yet jeopardized by execution phenomena called timing anomalies (TAs). A counter-intuitive TA manifests when a local speedup eventually leads to a global slowdown, and an amplification TA, when a local slowdown leads to an even larger global slowdown.While counter-intuitive TAs threaten the soundness/scalability of timing analyses, tools to systematically detect them do not exist. We set up a unified formal framework for systematically assessing the definitions of TAs, concluding the lack of a practical definition, mainly due to the absence of relations between local and global timing effects. We address these relations through the causality, which we further use to revise the formalization of these TAs. We also propose a specialized instance of the notions for out-of-order pipelines. We evaluate our subsequent detection procedure on illustrative examples and standard benchmarks, showing that it allows accurately capturing TAs.The complexity of the systems demands that their timing analyses be able to cope with the large resulting state space. A solution is to perform compositional analyses, specifically threatened by amplification TAs. We advance their study by showing how a specialized abstraction can be adapted for an industrial processor, by modeling the timing-relevant features of such a hardware with appropriate reductions. We also illustrate from this class of TAs how verification strategies can be used towards the obtainment of TA patterns
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Boniol, Paul. „Detection of anomalies and identification of their precursors in large data series collections“. Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5206.

Der volle Inhalt der Quelle
Annotation:
Les larges collections de séries temporelles deviennent une réalité dans un grand nombre de domaines scientifiques et sociaux, comme la finance, les sciences de l’environnement, l’astrophysique, les neurosciences, l’ingénierie ou les métiers du numérique. Il y a donc un intérêt et un besoin de plus en plus importants de développer des techniques efficaces pour analyser et traiter ce type de données. De manière informelle, une série temporelle est une séquence ordonnée de points ou de valeurs. Une fois les séries collectées et disponibles, les utilisateurs ont souvent besoin de les étudier pour en extraire de la valeur et de la connaissance. Ces analyses peuvent être simples, comme sélectionner des fenêtres temporelles, mais aussi complexes, comme rechercher des similarités entre des séries ou détecter des anomalies, souvent synonymes d’évolutions soudaines et inhabituelles possiblement non souhaitées, voire de dysfonctionnements du système étudié. Ce dernier type d’analyse représente un enjeu crucial pour des applications dans un large éventail de domaines partageant tous le même objectif : détecter les anomalies le plus rapidement possible pour éviter la survenue de tout événement critique, comme par exemple de prévenir les dégradations et donc d’allonger la durée de vie des systèmes. Par conséquent, dans ce travail de thèse, nous traitons les trois objectifs suivants : (i) l’exploration non-supervisée de séries temporelles pour la détection rétrospective d’anomalies à partir d’une collection de séries temporelles. (ii) la détection non-supervisée d’anomalies en temps réel dans les séries temporelles. (iii) l’explication de la classification d’anomalies connues dans les séries temporelles, afin d’identifier de possibles précurseurs. Dans ce manuscrit, nous introduisons d’abord le contexte industriel qui a motivé la thèse, des définitions fondamentales, une taxonomie des séries temporelles et un état de l’art des méthodes de détection d’anomalies. Nous présentons ensuite nos contributions scientifiques en suivant les trois axes mentionnés précédemment. Ainsi, nous décrivons premièrement deux solutions originales, NormA (basée sur une méthode de clustering de sous-séquences de la série temporelle à analyser) et Series2Graph (qui s’appuie sur une transformation de la séries temporelle en un réseau orienté), pour la tâche de détection non supervisée de sous-séquences anormales dans les séries temporelles statiques (i.e., n’évoluant pas dans le temps). Nous présentons dans un deuxième temps la méthode SAND (inspiré du fonctionnement de NormA) développée pour répondre à la tâche de détection non-supervisée de sous-séquences anormales dans les séries temporelles évoluant de manière continue dans le temps. Dans une troisième phase, nous abordons le problème lié à l’identification supervisée des précurseurs. Nous subdivisons cette tâche en deux problèmes génériques : la classification supervisée de séries temporelles d’une part, l’explication des résultats de cette classification par l’identification de sous-séquences discriminantes d’autre part. Enfin, nous illustrons l’applicabilité et l’intérêt de nos développements au travers d’une application portant sur l’identification de précurseurs de vibrations indésirables survenant sur des pompes d’alimentation en eau dans les centrales nucléaires françaises d’EDF
Extensive collections of data series are becoming a reality in a large number of scientific and social domains. There is, therefore, a growing interest and need to elaborate efficient techniques to analyze and process these data, such as in finance, environmental sciences, astrophysics, neurosciences, engineering. Informally, a data series is an ordered sequence of points or values. Once these series are collected and available, users often need to query them. These queries can be simple, such as the selection of time interval, but also complex, such as the similarities search or the detection of anomalies, often synonymous with malfunctioning of the system under study, or sudden and unusual evolution likely undesired. This last type of analysis represents a crucial problem for applications in a wide range of domains, all sharing the same objective: to detect anomalies as soon as possible to avoid critical events. Therefore, in this thesis, we address the following three objectives: (i) retrospective unsupervised subsequence anomaly detection in data series. (ii) unsupervised detection of anomalies in data streams. (iii) classification explanation of known anomalies in data series in order to identify possible precursors. This manuscript first presents the industrial context that motivated this thesis, fundamental definitions, a taxonomy of data series, and state-of-the-art anomaly detection methods. We then present our contributions along the three axes mentioned above. First, we describe two original solutions, NormA (that aims to build a weighted set of subsequences that represent the different behaviors of the data series) and Series2Graph (that transform the data series in a directed graph), for the task of unsupervised detection of anomalous subsequences in static data series. Secondly, we present the SAND (inspired from NormA) method for unsupervised detection of anomalous subsequences in data streams. Thirdly, we address the problem of the supervised identification of precursors. We subdivide this task into two generic problems: the supervised classification of time series and the explanation of this classification’s results by identifying discriminative subsequences. Finally, we illustrate the applicability and interest of our developments through an application concerning the identification of undesirable vibration precursors occurring in water supply pumps in the French nuclear power plants of EDF
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dentzer, Jacques. „Forçages environnementaux et contrôles structuraux sur le régime thermique actuel du bassin de Paris : enjeux pour la compréhension du potentiel géothermique en Ile-de-France“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066187/document.

Der volle Inhalt der Quelle
Annotation:
Les acquisitions de mesures de températures et de conductivités thermiques ont enrichi la connaissance du régime thermique du bassin sédimentaire de Paris et ont mis en évidence des hétérogénéités thermiques spatiales ou temporelles. Afin de mieux les comprendre, ces variations doivent être intégrées dans une vision multidisciplinaire confrontant données et modèles. La revue bibliographique sur le sujet a permis d’intégrer les données de natures diverses, de les confronter par SIG et d’investiguer les connaissances. Cette étude a mis en évidence et réinterprété les variations verticales de flux géothermal. Les simulations conduites à partir de scénarios diffusifs paléoclimatiques montrent que le système a gardé en mémoire l’effet des paléoclimats. Par ailleurs, nous identifions pour la première fois une décroissance systématique du flux géothermal au niveau des principales formations aquifères. Des simulations thermo-hydrauliques transitoires des phénomènes paléoclimatiques mettent en évidence le développement de zones froide et chaude suivant les régions d’écoulement. Une explication de l’anomalie de température de plus de 20°C entre les installations géothermiques situées au nord et au sud de Paris au Bathonien est proposée. Les modélisations effectuées montrent clairement la contribution potentielle de zones fracturées, ainsi que celle des failles, à l’hétérogénéité observée dans le champ de température du bassin en permettant des écoulements contraints par le gradient de charge régional et les instabilités densitaires. Ces travaux ont montré le lien entre les formations du bassin qui sont exploitées pour leurs ressources ou utilisées comme milieu de stockage
The acquisition of measurements of temperature and of thermal conductivity has enriched the understanding of the thermal regime of the Paris sedimentary basin and brought to light spatial and temporal thermal heterogeneities. In order to understand them better, these variations need to be integrated into a multidisciplinary vision of the basin by comparing data against models. The bibliographic review made it possible to integrate data of diverse sorts, to compare them using GIS and to investigate the knowledge base. This study has highlighted and reinterpreted the vertical variations of geothermal flux. Simulations carried out based on diffusive palaeoclimatic scenarios show that the system has retained a memory of the effects of palaeoclimates. Furthermore, for the first time, a systematic decline of the geothermal flux has been identified at the level of the main aquifer formations. Transitory thermo-hydraulic simulations of palaeoclimatic phenomena show the development in the sedimentary basin of cold and hot zones according to the areas of flow. An explanation of the temperature anomaly of over 20°C between the geothermal installations located to the north and south of Paris in the Bathonian is put forward. The models produced clearly show the potential contribution of fractured zones, as well as that of the faults, to the heterogeneity observed in the temperature field of the basin by allowing flow constrained by the regional charge gradient and unstable densities. This work has shown the link between the formations in the basin which are exploited for their resources or used as a storage medium
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Dentzer, Jacques. „Forçages environnementaux et contrôles structuraux sur le régime thermique actuel du bassin de Paris : enjeux pour la compréhension du potentiel géothermique en Ile-de-France“. Electronic Thesis or Diss., Paris 6, 2016. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2016PA066187.pdf.

Der volle Inhalt der Quelle
Annotation:
Les acquisitions de mesures de températures et de conductivités thermiques ont enrichi la connaissance du régime thermique du bassin sédimentaire de Paris et ont mis en évidence des hétérogénéités thermiques spatiales ou temporelles. Afin de mieux les comprendre, ces variations doivent être intégrées dans une vision multidisciplinaire confrontant données et modèles. La revue bibliographique sur le sujet a permis d’intégrer les données de natures diverses, de les confronter par SIG et d’investiguer les connaissances. Cette étude a mis en évidence et réinterprété les variations verticales de flux géothermal. Les simulations conduites à partir de scénarios diffusifs paléoclimatiques montrent que le système a gardé en mémoire l’effet des paléoclimats. Par ailleurs, nous identifions pour la première fois une décroissance systématique du flux géothermal au niveau des principales formations aquifères. Des simulations thermo-hydrauliques transitoires des phénomènes paléoclimatiques mettent en évidence le développement de zones froide et chaude suivant les régions d’écoulement. Une explication de l’anomalie de température de plus de 20°C entre les installations géothermiques situées au nord et au sud de Paris au Bathonien est proposée. Les modélisations effectuées montrent clairement la contribution potentielle de zones fracturées, ainsi que celle des failles, à l’hétérogénéité observée dans le champ de température du bassin en permettant des écoulements contraints par le gradient de charge régional et les instabilités densitaires. Ces travaux ont montré le lien entre les formations du bassin qui sont exploitées pour leurs ressources ou utilisées comme milieu de stockage
The acquisition of measurements of temperature and of thermal conductivity has enriched the understanding of the thermal regime of the Paris sedimentary basin and brought to light spatial and temporal thermal heterogeneities. In order to understand them better, these variations need to be integrated into a multidisciplinary vision of the basin by comparing data against models. The bibliographic review made it possible to integrate data of diverse sorts, to compare them using GIS and to investigate the knowledge base. This study has highlighted and reinterpreted the vertical variations of geothermal flux. Simulations carried out based on diffusive palaeoclimatic scenarios show that the system has retained a memory of the effects of palaeoclimates. Furthermore, for the first time, a systematic decline of the geothermal flux has been identified at the level of the main aquifer formations. Transitory thermo-hydraulic simulations of palaeoclimatic phenomena show the development in the sedimentary basin of cold and hot zones according to the areas of flow. An explanation of the temperature anomaly of over 20°C between the geothermal installations located to the north and south of Paris in the Bathonian is put forward. The models produced clearly show the potential contribution of fractured zones, as well as that of the faults, to the heterogeneity observed in the temperature field of the basin by allowing flow constrained by the regional charge gradient and unstable densities. This work has shown the link between the formations in the basin which are exploited for their resources or used as a storage medium
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Hadjem, Medina. „Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique“. Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB011.

Der volle Inhalt der Quelle
Annotation:
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs
Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hadjem, Medina. „Contribution à l'analyse et à la détection automatique d'anomalies ECG dans le cas de l'ischémie myocardique“. Electronic Thesis or Diss., Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB011.

Der volle Inhalt der Quelle
Annotation:
Les récentes avancées dans le domaine de la miniaturisation des capteurs biomédicaux à ultra-faible consommation énergétique, permettent aujourd’hui la conception de systèmes de télésurveillance médicale, à la fois plus intelligents et moins invasifs. Ces capteurs sont capables de collecter des signaux vitaux tels que le rythme cardiaq ue, la température, la saturation en oxygène, la pression artérielle, l'ECG, l'EMG, etc., et de les transmettre sans fil à un smartphone ou un autre dispositif distant. Ces avancées sus-citées ont conduit une large communauté scientifique à s'intéresser à la conception de nouveaux systèmes d'analyse de données biomédicales, en particulier de l’électrocardiogramme (ECG). S’inscrivant dans cette thématique de recherche, la présente thèse s’intéresse principalement à l’analyse et à la détection automatique des maladies cardiaques coronariennes, en particulier l’ischémie myocardique et l’infarctus du myocarde (IDM). A cette fin, et compte tenu de la nature non stationnaire et fortement bruitée du signal ECG, le premier défi a été d'extraire les paramètres pertinents de l’ECG, sans altérer leurs caractéristiques essentielles. Cette problématique a déjà fait l’objet de plusieurs travaux et ne représente pas l’objectif principal de cette thèse. Néanmoins, étant un prérequis incontournable, elle a nécessité une étude et une compréhension de l'état de l'art afin de sélectionner la méthode la plus appropriée. En s'appuyant sur les paramètres ECG extraits, en particulier les paramètres relatifs au segment ST et à l'onde T, nous avons contribué dans cette thèse par deux approches d'analyse ECG : (1) Une première analyse réalisée au niveau de la série temporelle des paramètres ECG, son objectif est de détecter les élévations anormales du segment ST et de l'onde T, connues pour être un signe précoce d'une ischémie myocardique ou d’un IDM. (2) Une deuxième analyse réalisée au niveau des battements de l’ECG, dont l’objectif est la classification des anomalies du segment ST et de l’onde T en différentes catégories. Cette dernière approche est la plus utilisée dans la littérature, cependant, il est difficile d’interpréter les résultats des travaux existants en raison de l'absence d’une méthodologie standard de classification. Nous avons donc réalisé notre propre étude comparative des principales méthodes de classification utilisées dans la littérature, en prenant en compte diverses classes d'anomalies ST et T, plusieurs paramètres d'évaluation des performances ainsi que plusieurs dérivations du signal ECG. Afin d'aboutir à des résultats plus significatifs, nous avons également réalisé la même étude en prenant en compte la présence d'autres anomalies cardiaques fréquentes dans l’ECG (arythmies). Enfin, en nous basant sur les résultats de cette étude comparative, nous avons proposé une nouvelle approche de classification des anomalies ST-T en utilisant une combinaison de la technique du Boosting et du sous-échantillonnage aléatoire, notre objectif étant de trouver le meilleur compromis entre vrais-positifs et faux-positifs
Recent advances in sensing and miniaturization of ultra-low power devices allow for more intelligent and wearable health monitoring sensor-based systems. The sensors are capable of collecting vital signs, such as heart rate, temperature, oxygen saturation, blood pressure, ECG, EMG, etc., and communicate wirelessly the collected data to a remote device and/or smartphone. Nowadays, these aforementioned advances have led a large research community to have interest in the design and development of new biomedical data analysis systems, particularly electrocardiogram (ECG) analysis systems. Aimed at contributing to this broad research area, we have mainly focused in this thesis on the automatic analysis and detection of coronary heart diseases, such as Ischemia and Myocardial Infarction (MI), that are well known to be the leading death causes worldwide. Toward this end, and because the ECG signals are deemed to be very noisy and not stationary, our challenge was first to extract the relevant parameters without losing their main features. This particular issue has been widely addressed in the literature and does not represent the main purpose of this thesis. However, as it is a prerequisite, it required us to understand the state of the art proposed methods and select the most suitable one for our work. Based on the ECG parameters extracted, particularly the ST segment and the T wave parameters, we have contributed with two different approaches to analyze the ECG records: (1) the first analysis is performed in the time series level, in order to detect abnormal elevations of the ST segment and the T wave, known to be an accurate predictor of ischemia or MI; (2) the second analysis is performed at the ECG beat level to automatically classify the ST segment and T wave anomalies within different categories. This latter approach is the most commonly used in the literature. However, lacking a performance comparison standard in the state of the art existing works, we have carried out our own comparison of the actual classification methods by taking into account diverse ST and T anomaly classes, several performance evaluation parameters, as well as several ECG signal leads. To obtain more realistic performances, we have also performed the same study in the presence of other frequent cardiac anomalies, such as arrhythmia. Based on this substantial comparative study, we have proposed a new classification approach of seven ST-T anomaly classes, by using a hybrid of the boosting and the random under sampling methods, our goal was ultimately to reach the best tradeoff between true-positives and false-positives
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Guigou, Fabio. „The artificial immune ecosystem : a scalable immune-inspired active classifier, an application to streaming time series analysis for network monitoring“. Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD007/document.

Der volle Inhalt der Quelle
Annotation:
Introduits au début des années 1990, les systèmes immunitaires artificiels visent à adapter les propriétés du système immunitaire biologique, telles que sa scalabilité et son adaptivité, à des problèmes informatiques : sécurité, mais également optimisation et classification. Cette thèse explore une nouvelle direction en se concentrant non sur les processus biologiques et les cellules elles-mêmes, mais sur les interactions entre les sous-systèmes. Ces modes d’interaction engendrent les propriétés reconnues du système immunitaire : détection d’anomalies, reconnaissance des pathogènes connus, réaction rapide après une exposition secondaire et tolérance à des organismes symbiotiques étrangers. Un ensemble de systèmes en interaction formant un écosystème, cette nouvelle approche porte le nom d’Écosystème Immunitaire Artificiel. Ce modèle est mis à l’épreuve dans un contexte particulièrement sensible à la scalabilité et à la performance : la supervision de réseaux, qui nécessite l’analyse de séries temporelles en temps réel avec un expert dans la boucle, c’est-à-dire en utilisant un apprentissage actif plutôt que supervisé
Since the early 1990s, immune-inspired algorithms have tried to adapt the properties of the biological immune system to various computer science problems, not only in computer security but also in optimization and classification. This work explores a different direction for artificial immune systems, focussing on the interaction between subsystems rather than the biological processes involved in each one. These patterns of interaction in turn create the properties expected from immune systems, namely their ability to detect anomalies, memorize their signature to react quickly upon secondary exposure, and remain tolerant to symbiotic foreign organisms such as the intestinal fauna. We refer to a set of interacting systems as an ecosystem, thus this new approach has called the Artificial Immune Ecosystem. We demonstrate this model in the context of a real-world problem where scalability and performance are essential: network monitoring. This entails time series analysis in real time with an expert in the loop, i.e. active learning instead of supervised learning
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Anomalies temporelles"

1

GOUHIER, Mathieu. „Surveillance des volcans par télédétection spatiale“. In Aléas et surveillance de l’activité volcanique 2, 177–226. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9045.ch3.

Der volle Inhalt der Quelle
Annotation:
Depuis les années 1980, l’avènement des techniques de télédétection spatiales a permis une amélioration notable de la détection et du suivi des éruptions volcaniques. C'est un domaine en fort évolution, avec le développement de nouveaux capteurs et l'amélioration des résolutions spectrales et spatiales ainsi que temporelles. On utilise soit des capteurs passifs (visible, UV et IR), soit des capteurs actifs (radar, lidar). On surveille les anomalies thermiques, les écoulements, les panaches de cendres et certains gaz. Ce chapitre décrit à la fois les principes des méthodes et leurs applications à la surveillance opérationnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie